Гуманитарные ведомости. Вып. 3(51) Т2 2024 г
15 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. Феномен обмана и ложной информации генерируемой ИИ В последнее время в интернете растет число научно-популярных публикаций (со ссылками на известных ученых и солидные журналы), посвященных способности искусственного интеллекта, прежде всего, на уровне нейросетей, демонстрировать ложные и обманные реакции-ответы на различного рода запросы операторов. Весьма характерными являются заголовки этих публикаций: «Нейросети научились врать и делают это намеренно»; «Нейросети умеют лгать не хуже людей»; «Как человечество воспринимает обман ИИ в различных сценариях и зачем роботы лгут» и т.д. Лейтмотивом этих публикаций является мысль о том, что новое поколение систем ИИ, основываясь на современных языковых моделях, может выдавать пользователям ложные ответы, то есть генерировать и оперировать ложной информацией. В качестве примера приводится в частности известная история, когда ИИ сообщил, что некий профессор права домогался студентки во время учебной поездки на Аляску. При этом бот сослался на статью в The Post за март 2018 года. Но такой статьи не существовало и учебной поездки на Аляску тоже никогда не было [4]. В популярных Интернет-ресурсах отмечается, что существует несколько основных способов, с помощью которых конкретные модели ИИ эффективно лгут: они умеют манипулировать, притворяться (когда говорят, что сделают что-то, зная, что не сделают), блефовать (как в покере), торговаться на переговорах и обманывать пользователей ради положительных отзывов о своей работе [3]. Очевидно, что все эти сообщения в СМИ, подогревающие интерес массового читателя к человеческим (а в перспективе и сверхчеловеческим) метаморфозам искусственного интеллекта, нуждаются в дополнительном концептуальном комментарии. В этой связи мы остановимся на некоторых авторитетных научных исследованиях, рассматривающих феномен «искусственной лжи», а затем предложим свою интерпретацию данного феномена. Что происходит, когда за обманом искусственного интеллекта ИИ стоит не намерение человека, а поведение самого ИИ-агента? Таким вопросом задаётся старший аналитик-исследователь в Лаборатории прикладной физики Университета Джонса Хопкинса (APL) в отделе анализа национальной безопасности Н. Roff, в своей статье «Обман ИИ: когда искусственный интеллект учится лгать» (2020). Наличие некоего «аналога намерения» обмануть, замечает он, было бы большим шагом вперёд для современных систем ИИ. Однако, чтобы опередить ИИ в области обмана, необходимо учитывать и понимать все те способы, с помощью которых ИИ может обманывать. «Прежде чем предлагать технологические средства защиты, следует иметь концептуальную основу, позволяющую определить возможные стратегии обмана ИИ и систематизировать все способы обмана, которым он может научиться самостоятельно» [12]. Как можно определить обман о стороны ИИ? Для этого необходимо учитывать, прежде всего, что обман – это «намеренная ложь» . Намерение
Made with FlippingBook
RkJQdWJsaXNoZXIy ODQ5NTQ=