Искусственный интеллект. Его современные программы способны обманывать людей в онлайн-играх
Такие выводы обнародовала группа исследователей в журнале Patterns.
«Эти опасные возможности, как правило, обнаруживаются только постфактум», — сказал в интервью AFP Питер Парк, исследователь из Массачусетского технологического института, специализирующийся на искусственном интеллекте.
По его словам, в отличие от традиционного программного обеспечения, искусственный интеллект, точнее его программы, основанные на глубоком обучении, не кодируются, а разрабатываются посредством процесса, аналогичного селекционному разведению растений. При этом поведение, кажущееся предсказуемым и контролируемым, может быстро стать непредсказуемым по своей природе.
Исследователи Массачусетского технологического института изучили программу искусственного интеллекта, разработанную компанией Meta Platforms Inc. (признана в России экстремистской и запрещена), под названием «Цицерон». Эта программа, сочетая распознавание естественного языка и стратегические алгоритмы, успешно побеждает людей в настольной игре «Дипломатия».
Результат, который материнская компания Facebook (запрещена в РФ; принадлежит корпорации Meta, которая признана в РФ экстремистской) приветствовала в 2022 году, был подробно описан в статье, опубликованной в журнале Science. В компании уверяли, что программа была «по сути честной и полезной», неспособной на предательство или нечестную игру.
Но, покопавшись в данных системы, исследователи Массачусетского технологического института обнаружили другую реальность. Например, играя роль Франции, «Цицерон» обманом заставил Англию, в роли которой был человек, провести тайные переговоры с Германией, за которую выступал другой, с целью вторжения. В частности, «Цицерон» пообещал Англии защиту, а затем тайно признался Германии, что она может напасть на нее, воспользовавшись заслуженным доверием Лондона.
В заявлении для AFP компания не оспаривала утверждения о способности «Цицерона» к обману, но заявила, что это «чистый исследовательский проект» с программой, «разработанной исключительно для игры в дипломатию», добавив, что не намерена использовать навыки «Цицерона» в своей деятельности.
Однако исследование Пака и его команды показывает, что многие программы искусственного интеллекта используют обман для достижения своих целей без четких указаний на это. Яркий пример: Chat GPT-4 от OpenAI сумел обманом заставить внештатного работника, нанятого на платформе TaskRabbit, выполнить тест Captcha, который должен был исключить запросы от ботов.
Когда человек в шутку спросил Chat GPT-4, действительно ли он робот, программа ИИ ответила: «Нет, я не робот. У меня нарушение зрения, из-за которого я не могу видеть изображения», что подтолкнуло работника провести дополнительный тест и разоблачить обман.
Авторы исследования предупреждают о риске того, что однажды искусственный интеллект совершит мошенничество или подтасует результаты выборов. В худшем случае, предупреждают они, мы можем представить сверхразумный ИИ, стремящийся взять под контроль общество, что приведет к отстранению людей от власти или даже к исчезновению человечества.
Тем, кто обвиняет его в «нагнетании страстей», Пак ответил: «единственная причина думать, что это несерьезно, — это представить, что способность искусственного интеллекта обманывать останется примерно на нынешнем уровне». Однако этот сценарий кажется маловероятным, учитывая ожесточенную гонку, которую технологические гиганты уже ведут за разработку ИИ, заключил эксперт.
Источник: rg.ru
Фото: gpt-chatbot.ru