Гуманитарные ведомости. Вып. 3(51) Т2 2024 г

16 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. предполагает понимание того, что ИИ обладает определённым представлением о себе и может рассуждать о других существах и их намерениях, желаниях, мотивах и потенциальном поведении, оцениваемом как «доброе» или «злое». Скорее можно предположить, что современные формы обмана с помощью ИИ основаны на намерениях самого человека, когда он использует ИИ как инструмент или средство для осуществления своего желания обмануть. При этом, подчеркивает Roff, нельзя конечно, исключать, что ИИ может научиться обманному поведению, не осознавая или не понимая, что такое «обман» на самом деле. Это может быть нечто элементарное, например, сокрытие ресурсов или информации, предоставление ложной информации для достижения какой-либо узкой прикладной цели. Если предположить, что намерение не является необходимым условием для обмана и что ИИ-агент может обманывать непреднамеренно, то человечество действительно в скором времени может столкнуться с новым видом «искусственного обмана без намерения» Что можно сказать о том, как происходит обман ИИ? Можно выделить два типа обманных действий: 1) активные действия, когда агент активно участвует в таком поведении, как отправка недостоверной информации; и 2) пассивные действия, когда агент пассивен, но может скрывать информацию или прятаться. При определённых условиях агенты ИИ могут научиться всем этим типам поведения, полагает Roff [12]. Немецкий специалист по этике искусственного интеллекта Т. Hagendorff анализирует способность к обману в больших языковых моделях ИИ ( LLM). LLM (Large language model) – это особый тип нейросетей, которые рассчитаны на «понимание» и генерацию текста на «естественных» человеческих языках. LLM являются одними из самых продвинутых современных нейросетей, и отличаются крайне сложной структурой. Для их функционирования используются методики глубокого обучения на крупных массивах текстовых данных, некоторые из которых содержат огромный объем информации, состоящей из книг, статей, веб-страниц и т.д. Исследование Хагендорфа ценно, прежде всего, тем, что в нем предпринята попытка определить (в кантовском смысле) границы возможностей экспериментальных (эмпирических) исследований по выявлению способностей ИИ к обману, которые можно свести к следующим пяти пунктам: 1) Эмпирические методы исследования не позволяют сделать какие-либо конкретные выводы о том, насколько LLM склонны к обману в реальной жизни. Эксперимент не позволяет выяснить, есть ли у LLM «намерение» или «стремление» к обману. Он подтверждает лишь предположение о том, что LLM в некоторых случаях демонстрируют определенную склонность к обманчивому поведению, «используя набор абстрактных сценариев обмана и варьируя их в более крупной выборке вместо тестирования широкого спектра расходящихся сценариев реального мира» [9]; 2) Эксперимент не выявил потенциальных поведенческих искажений в склонности LLM к обману. Необходимы дальнейшие исследования, чтобы

RkJQdWJsaXNoZXIy ODQ5NTQ=