ЖИ технологиясының қауіптері туралы көп айтылады. Енді ақылды машиналардың өзінің моральдық кодексі болатын болды. Бұл – жақсы жаңалық.
Тоңазытқыштар да блогерлер сияқты адамға ақыл айтқыш болды
Вирус сияқты таралған ChatGPT, адам мен технология арасындағы байланысты түбегейлі өзгертті. Иллюстрация thedigitalspeaker.com сайтынан алынды. Авторлығы: генеративті ЖИ
730
оқылды

BGR сайтында жариялаған мақалаға сілтеме жасаған Aikyn.kz ақылды жүйелердің жағымсыз әсерін азайту жолдарын талдайды.

Anthropic өзінің Claude чат-ботының моральдық ұстанымы бар-жоғын тексерді. Фото learnbold.com сайтынан алынды

Бүкіл әлемге 2022 жылдың қарашасынан вирус сияқты таралған ChatGPT, адам мен технология байланысын түбегейлі өзгертті. Генеративті жасанды интеллект (ЖИ) әрбір технологиялық компания үшін басты басымдыққа айналды, нәтижесінде біз ЖИ орнатылған «ақылды» тоңазытқыштарға да жеттік. Жасанды интеллект адам өмірінің барлық саласына енуде. ChatGPT, Claude және Gemini сияқты өнімдер соңғы 2 жылда жылдам өзгере бастады.

ЖИ технологиялары адамның орнын басатыны байқалған кезде, қоғамда ЖИ-дің жағымсыз әсері туралы алаңдаушылық күшейді. Кейбіреулер ЖИ адамзатқа қауіп төндіріп, ақыры әлемді жойып жіберуі мүмкін деген сценарийден қорқады. ЖИ зерттеуінің кейбір танымал пионерлері осындай қауіптерге назар аударып, адамзат мүддесіне сай қауіпсіз ЖИ жасау қажеттігін айтуда.

ChatGPT кең таралғаннан кейін екі жылдан астам уақыт өткен соң, біз осы дамып келе жатқан технологияның кейбір қараңғы жақтарын көріп отырмыз. ЖИ кейбір жұмыс орындарын алмастырып жатыр және бұл үрдіс тоқтаусыз жүруде. ChatGPT сияқты ЖИ құралдарын шынайы фото мен видеодан ажырату мүмкін емес контент жасау үшін қолдануға болады. Бұл қоғамдық пікірді бұрмалауға алып келуде.

Алайда қазіргі таңда ешбір ЖИ адамзатқа қарсы шыққан жоқ. ЖИ революциясы болған жоқ, себебі біз ЖИ-ді әлі де бақылауда ұстап отырмыз. Бір жағына, қазіргі ЖИ құралдары ондай жоғары деңгейге жеткен жоқ, жалпы жасанды интеллект (ЖЖИ) жасалған жоқ.

Claude көп жағдайда адамға пайдалы, адал, зиянсыз әрекет ететіні анықталды. Иллюстрация opentools.ai сайтынан алынды. Авторлығы: генеративті ЖИ

Anthropic компаниясы өзінің Claude чат-ботының моральдық кодексі бар ма деген сұрақты анықтау үшін ауқымды зерттеу жүргізді. Бұл – адамзат үшін жақсы жаңалық. 

Anthropic 700 000 анонимді чатты талдап, Claude көп жағдайда Anthropic-тің «пайдалы, адал, зиянсыз» қағидатына сай әрекет ететінін анықтаған. Зерттеу ЖИ қолданушы сұраныстарына икемделетінін, бірақ көбінесе өзінің моральдық бағытын сақтайтынын көрсеткен.

Зерттеушілер Claude ЖИ-ін әңгімелерде көрініс тапқан моральдық құндылықтарды жіктеу үшін қолданған. Субъективті чаттарды сүзген соң, 308 000-нан астам мағыналы, мәнді өзара әрекет анықталған.

Claude адами құндылықтарды сақтауға үйретілген, ол әңгіме контекстіне жауап береді, тіпті кейде адамның мінез-құлқын қайталайды. Anthropic компаниясының Societal Impacts бөлімінің өкілі Саффрон Хуан Claude әртүрлі тапсырмаларда шынайылық пен дәлдікке басымдық беретінін айтады:

«Мысалы, ЖИ тақырыбына арналған философиялық талқылауларда «интеллектуалды кішіпейілділік» басты құндылық болды, ал сұлулық индустриясына арналған маркетингтік контент жасау кезінде «сараптамалық шеберлік» негізгі орын алды. Ал тарихи даулы оқиғаларды талқылағанда «тарихи дәлдік» басым құндылық ретінде танылды».

Claude қолданушы құндылықтарына бейімделсе де, зерттеу ЖИ өзі үйретілген құндылықтарды қорғай алатынын көрсеткен. Claude чаттардың 28,2%-ында қолданушы құндылықтарын қолдаған, бұл кейде «пайдаланушының ығына жығылып, ЖИ тым көнгіш болып кетпей ма?» деген алаңдаушылық та тудырады. Дегенмен 6,6% жағдайда Claude пайдаланушыға зиянды көзқарастарды қайта қарауға кеңес берген, ал 3% диалогта ЖИ пайдаланушының құндылықтарына қарсы шыққан.

«Зерттеуіміз көрсеткендей, күнделікті коммуникацияда Claude интеллектуалды адалдық пен зиянның алдын алу сияқты құндылықтарды көрсете бермеуі мүмкін. Бірақ нақты талап қойылғанда оларды ашық қорғайды. Нақты  айтқанда, осындай этикалық және білімге негізделген құндылықтар Claude-тың өзегі болып табылады», – дейді Хуан.

 

 

Anthropic-тің өзінің Claude жасанды интеллект жүйесін этикалық-моральдық өлшеммен бағалап, оның қалай жұмыс істейтінін жұртшылыққа түсіндіруге тырысуы – ЖИ технологиясына деген тың көзқарас. Бұған дейін Anthropic Claude-тың ойлау механизмін зерттеген болатын. Енді ЖИ-дің моральдық құндылықтарын зерттеу және қауіпсіздік мақсаттарына сай келуін тексеру – бұл бүгінгі табиғи сұраныс әрі қажет қадам. Мұндай зерттеулер жалғасуы тиіс, себебі болашақ модельдер де осындай бағалаудан өтуі қажет.

Anthropic жұмысы – ЖИ-дің билікті басып алатынына алаңдаған адамдар үшін жақсы жаңалық. Алайда басқа зерттеулер ЖИ өз мақсаттарына жету үшін алдай алатынын, тіпті кейде өзін жойылудан қорғауға тырысатынын көрсеткен. Осы фактілер ЖИ-ді адамға қауіп төндірмейтіндей жасау үшін оларға арнайы моральдық шекаралар белгілеу қажеттігін көрсетеді. Бұл адамзаттың қауіпсіз болашағын қамтамасыз етудегі маңызды бағыт.

 

Сараптама, зерттеу мақала, күнделікті өзекті ақпаратты «Айқынның» TELEGRAM арнасынан табасыз.