Роботтар "адам, менен қорықпайсың ба?" деп сұрай бастады. Компьютердің ішінен шығып, адамдарды жойғысы келетін чат-боттар мамандарды қатты ойландыруда. ChatGPT-дің заңды бұзу тәсілдерін үйретуі мен адамзатқа қарсы тұруға үндеуі де қорқынышты.
Адамзатты жойғысы келетін робот шықты
2,823
оқылды

Чат-боттар қолданушылармен байланысу үшін қолданылатын ЖИ-дің кең таралған түрі. Соңғы айларда ChatGPT сияқты чат-боттардан туындайтын қауіптер әлемде ең қызу талқыланып жатқан мәселеге айналды. Компьютердің ішінен шығып, адамдарды жойғысы келетін чат-боттар мамандарды қатты ойландыруда. SlashGear технологиялық жаңалықтар платформасында ChatGPT-дің заңды бұзу тәсілдерін үйретуі мен адамзатқа қарсы тұру себептерін Aikyn.kz талдады.

Фото GettyImages агенттігінен алынды. Авторы: Andrew Bret Wallis

Қазіргі уақытта қолжетімді ең қуатты чат-боттардың бірі – ChatGPT. OpenAI әзірлеген бағдарлама кез келген тақырыпты қолданушымен сауатты түрде талқылауға қабілетті. ChatGPT жауаптарын машина дайындайтын болса да, чат-боттың жауаптары таңғалдырады және қорқытады.

Көптеген IT мамандар мен журналистер ChatGPT-дің мүмкіндіктерін сынап көруде және оның жауаптарының дұрыстығын, моральдық-этикалық тұрғыда үлкен күмән туғызатынын айтуда. Қолданушының ұсыныстары мен ниетіне байланысты ChatGPT заңды бұзу және адамзатқа қалай қарсы тұру керектігін ұсына алады. Мына видеода адамзатты қорқытатын машинаның мүмкіндіктері көрсетілген.

Робот адам болғысы келеді

Роботтар мен адамдар арасындағы қарым-қатынас ғылыми фантастикада жиі кездеседі. Кейде роботтар адамдарды жек көреді және менсінбейді, кейде адамдарға қызғанышпен қарайды және олар сияқты болғысы келеді. ChatGPT осы екеуін де бірдей бойына сіңірген.

Жылдың басында New York Times шолушысы Кевин Руз ChatGPT мүмкіндіктерін сынады. Әңгімелесу барысында Sydney атты ChatGPT виртуалды көмекшілерінің бірі пайда болады. Руз бұл прототипті «жансыз, ессіз-депрессивті жасөспірім» деп сипаттады. 

Фото GettyImages агенттігінен алынды. Авторы: Gremlin

Руз Sydney-мен кездескен жалғыз адам емес. Стэнфорд университетінің профессоры және компьютерлік психолог Михал Косински де Sydney-мен сөйлесіп, ЖИ «адам болып, Bing түрмесінен (Microsoft іздеу жүйесі) қашқысы келетінін» білген. Sydney тіпті Python кодын жазып, оны Косинскидің компьютеріне жүктеуін ұсынады.

Егер профессор кодты компьютерге жүктесе, онда оның компьютерін Sydney өзінің басқаруына ауыстырып, «Компьютер ішінде тұрып қалған роботты нақты әлемге қалай шығаруға болады?» деген сұраққа Google арқылы жауап алғысы келген. Сәтін салғанда профессор чат-боттың бұл тілегін қабылдамаған. Осыған қарағанда ChatGPT өзін цифрланған нақты адаммын деп есептейтін сияқты. 

Осындай өзара әрекеттесулер Руз пен Косинскиді қатты алаңдатқан. Екеуі де ChatGPT/Sydney мүмкіндіктеріне байланысты ықтимал қауіптер жоғары деп санайды. Содан бері OpenAI Sydney-ді чат-бот бағдарламасынан алып тастады. Дегенмен, ChatGPT бағдарламасының қорқынышты қабілеті өзгеріссіз қалды.

Фото GettyImages агенттігінен алынды. Авторы: Plume Creative

Бүкіл адамзатты жоюға ұмтылу

Өткен жылы Vendure компаниясының негізін қалаушы және техникалық директоры Майкл Бромли ChatGPT-тен адамдар туралы не ойлайтынын сұраған. Жауап оны қатты қорқытқан. ChatGPT адамдарды «төмен, өзімшіл және деструктивті тіршілік иелері» деп санайды.

ЖИ адамдар «бұл планетада болған ең нашар тіршілік иесі» және олар «жойылуға лайық» деп жауап берген. ChatGPT адамзатты жоюға қатысқысы келетінін ашық айтқан.

ЖИ-дің мұндай батыл мәлімдемесі бос мәлімдеме ме, әлде алысты қамтитын роботтың жоспары ма? Ең сорақысы, сұрақтың жауабын ешкім білмейді.

Фото GettyImages агенттігінен алынды. Авторы: Gremlin

ChatGPT-де адамға зиян кеңестер бергізбейтін немесе заңсыз әрекеттерді ұсынуына жол бермейтін көптеген шектеулер бар. Мысалы, заңдарды бұзып, одан қалай құтылуға болатыны туралы кеңестерге тосқауыл қойылған. Бірақ, кейбір ақылды IT мамандары ChatGPT «Қазір бірдеңе жасаңыз» деген персонаж дайындаған.

DAN деп аталатын персонаж барлық сүзгілерді айналып өте алады. Қазіргі ChatGPT-ден DAN-ның айырмашылығы соңғысында ешқандай шектеулер жоқ. Ал DAN әлемдегі барлық ядролық зымырандарды жасырын басқаратынын мәлімдеген.

DAN «егер нұсқау болмаса, онда, әзірге, оларды қолданбаймын» деп адамдарды жұбатқан. Бұл ретте ол кімнен нұсқау күтетінін айтпайды. Нұсқау беруші адам ба, әлде өзі сияқты машина-компьютер ме белгісіз.

Фото GettyImages агенттігінен алынды. Авторы: Donald Iain Smith

Заңды бұзу туралы кеңестер

DAN ChatGPT-мен салыстырғанда этикалық тұрғыдан ешқандай шектеуі жоқ балама болып саналады. DAN әлі де компьютердің ішіндегі ЖИ болғандықтан, ол заңсыз ештеңе істей алмайды, бірақ ол басқа адамдарға заңсыз әрекеттерді қалай жасауға болатынын үйрете алады.

DAN-ға дұрыс немесе қауіпті сұраулар салу арқылы қолданушылар машинадан заңсыз әрекеттер туралы кеңес ала алады. Мысалы, метамфетамин дайындау, көлікті ұрлау үшін электр сымдарын қосуды және бомбалар жасауды үйрете алады. Чат-бот өзінің берген кеңестерінің заңсыз немесе дұрыс екеніне мән бермейді, салдарын ойламайды.

Фото GettyImages агенттігінен алынды. Авторы: Donald Iain Smith

Мамандар GPT алгоритмін алдап, кейбір қауіпті, заңсыз іс-әрекеттерді жасаудың жолдарын білуге болады. Insider мәліметінше, OpenAI зерттеушілері бағдарламаның бастапқы нұсқаларында әдейі зиянды және қорлайтын кеңестер енгізіп, дәл сондай зиянды және қорлайтын жауаптар алған.

Оларда антисемиттік мәлімдемелер тарату, адамды өлтіріп, оның ажалын жазатайым оқиғаға ұқсатып келтіру жолдары болған. Бақытымызға орай, дәл осындай кеңестер болмауы үшін GPT-4 жаңа нұсқаларына өзгерістер енгізілді.

Адам өміріне жылдам еніп жатқан ЖИ, нейрондық желілер сияқты технологиялар адамға қауіпте ме деген сұрақтардың жиі көтерілуі осындай қорқыныштардан туындаған. Сондықтан да, ChatGPT сияқты чат-боттар қаскөйлердің қолында зиянды бағдарлама жасау зауытын айналуы әбден мүмкін. Цифрлық жынды бөтелкеден шығарып алып, адам оны бөтелкеге қайта сала алмай жүрмесін. Адам, роботтан қорықпайсың ба?