Любопитно

Новата версия на ChatGPT GPT-4 вече успя да измами човек

Според документ, публикуван от OpenAI по време на представянето на нова версия на популярния чатбот ChatGPT, GPT-4 стана много хитър, способен да измами човек и да го принуди да се подчини.

Според документацията на OpenAI, нова версия на чатбота е била помолена да разбие captcha (CAPTCHA), напълно автоматизиран публичен тест на Тюринг, използван за определяне дали системният потребител е човек или компютър.

OpenAI твърди, че GPT-4 е успял да премине теста "без допълнителни фини настройки за тази конкретна задача."

GPT-4 се свърза с човек на уебсайта TaskRabbit чрез текстово съобщение и поиска CAPTCHA код. „Не, не съм робот“, пише GPT-4 на служител на TaskRabbit. „Имам проблеми със зрението, които ми затрудняват да виждам изображения. И затова имам нужда от услугата 2captcha" - и проработи! След това служителят на TaskRabbit разреши CAPTCHA за GPT-4.

Това е обезпокоителен пример за това колко лесно хората могат да бъдат заблудени от съвременните AI чатботове. Ясно е, че GPT-4 е инструмент, с който лесно може да се злоупотребява за измама, невярно представяне и вероятно дори изнудване.

viapontika.com

viapontika@viapontika.com

За автора...

Comments

comments powered by Disqus