Адамдардың нағыз көмекшісі болуға жараған ChatGPT жүйесі пайдаланушының бұрынғы сауалдарын «ұмытып», ескермейтін. Жақында ferra.expert сайты бұл кемшілік түзетілетінін жазды. Сайттағы материалға сүйене отырып, Aikyn.kz үлкен тілдік модельдер негізінде жасалған ақылды чат-боттың қызметі қалай өзгеретінін түсіндіреді.
Бұл мүмкіндік ЖИ-ге байланысты жаңа көкжиектерді ашып, оны дербестендіріп және интуитивті етеді. Яғни, әрбір пайдаланушының ерекше сұраныстарын ескеріп жауап береді. Жаңа ChatGPT пайдаланушымен пікір алмасу тарихын сақтап қана қоймай, осы деректерден белсенді түрде үйреніп отырады.
Енді ақылды чат-боттар адамды қандай сұрақтар қызықтыратынына, оны қанағаттандыратын жауаптарға, жеке қасиеттеріне, тұратын аймағына байланысты өз жауаптарын ыңғайлайтын болды.
Мысалы, егер пайдаланушы Python тілінде бағдарламалауды қаласа, ChatGPT бұл таңдауды болашақ сұрауларда ескереді. Алдағы сапарлар мен саяхаттар туралы сұрауларға ЖИ пайдаланушыға ұнайтын қалалардан, теңіз жағасында орналасқан отельдер мен мейрамханаларды ұсынуы мүмкін.
Бұл жаңашылдық қазірдің өзінде бірқатар пайдаланушылар арасында сынақтан өтуде. Алайда оның игілігін көпшілік барлық сынақтар өткізілгеннен кейін көретін болады.
Жаңа мүмкіндік ChatGPT-ді тек құрал емес, сонымен қатар «есте сақтау» және пайдаланушының қалауына бейімделе алатын толыққанды цифрлық көмекшіге, сұхбаттасушыға айналдырады.
Мамандар осы жаңарту ЖИ пайдаланудың жаңа перспективаларын ашады, ChatGPT-мен өзара әрекеттесуді тереңдетеді және дербестендіреді деген пікірде. Бұл мүмкіндік тек ақылы жазылушыларға қолжетімді бола ма, әлде барлық пайдаланушыларға таратыла ма деген сұраққа әлі жауап жоқ.
Үлкен тілдік модельдер дегеніміз не және олар қалай жұмыс істейді?
Үлкен тілдік модельдер (LLM) – орасан зор көлемдегі деректердің негізінде алдын ала дайындалған өте үлкен терең оқыту үлгілері.
Негізгі трансформер – бұл әрқайсысы өзін-өзі бақылау мүмкіндіктері бар кодер (кодтаушы) пен декодерден (кодты ашу, дешифратор) тұратын нейрондық желілердің жиынтығы. Кодер және декодер мәтін тізбегінен мағынаны шығарып, ондағы сөздер мен сөз тіркестерінің арасындағы байланысты түсінеді.
LLM трансформерлер өздігімен ешқандай бақылаусыз оқуға қабілетті. Дәлірек айтсақ, трансформерлер өздігінен білім алады. Дәл осы процесс арқылы трансформерлер негізгі грамматика мен тілдерді түсінуге және білімді меңгеруге үйренеді.
Кіріс деректерді тізбек түрінде өңдейтін бұрынғы қайталанатын нейрондық желілерден (RNN) айырмашылығы, трансформерлер барлық тізбектерді параллельді түрде өңдейді.
Бұл деректермен жұмыс істейтін мамандарға графикалық процессорларды трансформерлерге негізделген Үлкен тілдік модельдерді (LLM) оқыту үшін пайдалануға мүмкіндік береді, бұл үйрету уақытын айтарлықтай қысқартады.
Трансформерлердің нейрондық желісінің архитектурасы көбінесе жүздеген миллиард параметрлері бар өте үлкен үлгілерді пайдалануға мүмкіндік береді. Мұндай үлкен үлгілер көбінесе интернеттен, сонымен қатар 50 миллиардтан астам веб-беттері бар Common Crawl индексі және шамамен 57 миллион беті бар Wikipedia сияқты ресурстардан үлкен көлемдегі деректерді қолдана алады.