Үлкен тілдік модельдер шындыққа мән бермейді. Оларда шындық деген ұғым жоқ. Қауіптілік те осында.
Абай болыңыз: жасанды интеллект – шатпақ ойдың шебері
Өтірікші мен шыншыл адам – бір ойынның қатысушылары. Фото strangeexiles.substack.com сайтынан алынды
858
оқылды

Беделді Financial Times басылымында жарияланған жасанды интеллект дайындаған мәтіндердің дәлдік пен шындығы туралы хабарламаның маңызын Aikyn.kz түсіндіреді.

ЖИ адамның миын «сындыратын» сандырақ сөздің шебері. Фото msn.com сайтынан алынды. Авторлығы: Shutterstock / Andrey Suslov

Америкалық философ Гарри Франкфурттің пайымдауынша, шындықтың ең үлкен жауы өтірік емес. Одан да жаманы – бос сөз, шатпақ пен сандырақ. Ол бұл туралы өзінің 1986 жылы жазған «Сандырақ туралы» атты классикалық эссесінде түсіндірген. Философтың айтуынша, өтірікші мен шындықты сүйетін адам – бір ойынның қатысушылары. Бірақ олар қарсы тараптарда ойнайды. Екеуі де фактіні мойындайды, бірақ бірі оны қабылдайды, екіншісі теріске шығарады. Ал бос сөз иесі мұндай талаптарға мүлдем мән бермейді.

«Ол шындықтың беделін өтірікші сияқты жоққа шығармайды, бірақ оған мүлде назар аудармайды. Сондықтан сандырақ сөз – шындықтан да қауіпті». Мұндай адам – фактілерге қарамастан, басқаларды сендіруді көздейді.

Өкінішке қарай, Франкфурт ChatGPT шыққаннан кейін бірнеше ай өткенде, 2023 жылы қайтыс болды. Бірақ оның эссесін генеративті жасанды интеллект дәуірінде оқу – өте таныс сезімдер тудырады. Франкфурттің талдауы ЖИ қолдайтын үлкен тілдік модельдердің мәнін дәл сипаттайды. Олар шындыққа бей-жай қарайды, өйткені оларда шындықтың не екенін түсінетін қабілет жоқ. Олар эмпирикалық бақылауға емес, статистикалық байланыстарға сүйенеді.

«Олардың ең үлкен күші – бірақ сонымен бірге ең үлкен қаупі – кез келген тақырыпта сенімді естілетін қабілеттерінде. Олар шынайылыққа тәуелді емес. Басқаша айтқанда, олардың «суперқабілеті» – адамнан асып түсетін сандырақ айту шеберлігі», – деп жазады Карл Бергстром мен Джевин Уэст. 

Вашингтон университетінің осы екі профессоры «Қазіргі заманның сәуегейлері ме, әлде сандырақ машиналар ма?» атты онлайн-курсын жүргізеді. Кейбіреулер тіпті бұл процесті «botshit» (bot және bullshit – сандырақ, бос сөз, мағынасыз әңгіме) деп атайды.

ЖИ деректерді бір-бірімен қосып, ойдан шығарған әдемі тұжырым, көзқарас, мәтін ұсына алады. Фото atascocita.com сайтынан алынды

LLM модельдерінің ең танымал әрі кейде үрейлі, кейде қызықты қасиеттерінің бірі – фактілерді галлюцинациялау, елестету немесе жай ғана ойдан шығару. Кей зерттеушілер мұны ықтималдық модельдерінің ажырамас сипаты деп санайды, ал басқалары – түзетуге келмейтін қате дейді. Дегенмен ЖИ-компаниялар бұл мәселені шешуге тырысуда: мәліметтер сапасын жақсарту, модельдерді нақтылау, тексеру жүйелерін енгізу секілді жолдармен.

Алайда бұл бағытта әлі де біраз жұмыс қажет сияқты. Осы айда Anthropic компаниясының адвокаты Калифорния сотында олардың заң кеңсесі Claude моделінің «елестеткен» дәйексөзін байқамай қолданғандарын мойындады. Ал Google Gemini чат-боты өз пайдаланушыларына: «Gemini қателесуі мүмкін, әсіресе адамдар жайлы мәліметтерде. Сондықтан тексеріңіздер», – деп ескертеді. Бұған қарамастан, Google осы аптада АҚШ-та барлық негізгі қызметтеріне «ЖИ режимін» іске қосты.

Модельдердің сапасын жақсарту тәсілдерінің бірі – пайдаланушы пікірлеріне сүйене отырып оқыту. Бірақ бұл әдістің өзі де – жасырын бағалау, субъективтілік пен бұрмалауға жол ашуы мүмкін. 

Financial Times анықтағандай, OpenAI, Anthropic, Google, Meta, xAI және DeepSeek чат-боттары өз басшылары мен бәсекелестеріне қатысты бір-бірінен мүлде өзгеше сипаттама береді. Тіпті Илон Масктың Grok моделі Оңтүстік Африкадағы «ақ нәсілділер геноциді» туралы мемдерді мүлдем бұл тақырыпқа қатысы жоқ сұрақтарға жауап ретінде ұсынған. xAI бұл ақауды «рұқсат етілмеген өзгерістермен» байланыстырып, түзеткенін мәлімдеді.

Осы модельдер қоғамға жаңа әрі бұрын болмаған зиян түрін – «абайсыз сөйлеу» қауіпін тудырады, дейді Оксфорд интернет институтының ғалымдары Сандра Вахтер, Брент Миттельштадт және Крис Рассел. Олар мұндай сөйлеу тәсілі ұзақ мерзімді, жиналмалы және материалдық емес зиян келтіруі мүмкін деп есептейді. Бұл – қоғамды біртіндеп «ақымақтандыратын» көзге көрінбейтін сандырақ екенін айтады профессор Вахтер.

Бүгінгі қолданыстағы ЖИ автокөлікті ұшады деп жардан итеріп жіберген сияқты. Иллюстрация danablankenhorn.com сайтынан алынды. Авторлығы генеративті ЖИ

Саясаткер не сатушының мотивациясын біз болжай аламыз. Бірақ чат-боттарда мақсат жоқ: олар сенімді естілу мен пайдаланушының қызығушылығын тудыруға ғана бағдарланған. Олар еш себепсіз-ақ деректерді бір-бірімен қосып, ойдан шығарған әдемі тұжырым, көзқарас, мәтін ұсына алады. Бұл – адамзат білімінің негізін түсініксіз жолдармен ластайтын қауіпті бағыт.

Ең қызықты сұрақ – біз шындыққа адал, шынайы модельдер жасай аламыз ба? Мұндай модельдерге нарықта сұраныс бола ма? Әлде модель жасаушыларға жарнама берушілер, заңгерлер немесе дәрігерлерге қойылатын стандарттар сияқты шынайылық талаптарын енгізу керек пе? Вахтердің пікірінше, ондай модельдерді жасау уақыт, қаржы және ресурсты қажет етеді – ал қазіргі модельдер керісінше, оларды үнемдеуге бағытталған. 

«Бұл – автокөліктен ұшақ жасағың келгендей. Автокөлікті ұшады деп жардан итеріп жіберуге болады, бірақ ол гравитация заңына қарсы тұра алмайды», – дейді Сандра Вахтер.

Соған қарамастан, генеративті жасанды интеллект модельдері пайдалы және құнды болуы мүмкін. Көптеген табысты бизнес пен саяси мансап бос сөздің арқасында өркендегенін ұмытпайық. Дұрыс қолданылған жағдайда, генеративті ЖИ сан алуан бизнес-жобаларда табысты болуы мүмкін. Бірақ ЖИ чат-боттарын шындық машиналары деп қабылдау – үлкен қателіктерге ұрындырып, қауіпті болуы мүмкін. Абай болыңыз!

 

 

Сараптама, зерттеу мақала, күнделікті өзекті ақпаратты «Айқынның» TELEGRAM арнасынан табасыз.