Гуманитарные ведомости. Вып. 3(51) Т2 2024 г
20 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. Что касается моральной предвзятости, то здесь следует, прежде всего, иметь ввиду, что она возникает на основе плюрализма моральных принципов и отсутствия единого универсального морального закона подобного кантовскому категорическому императиву. Необъективный алгоритм, как правило, непреднамеренно воспроизводит соответствующие «моральные ошибки» в системе ИИ, подобно матрице, копирующей искажённые виртуальные образы. Эти ошибки и становятся «копиями-подобиями» человеческих ошибок- пороков. Заключение Исходя из данного комментария можно сделать главный вывод о том, что в случае лжи и обмана ИИ, мы имеем дело с особым видом искусственного зла: «ложью и обманом без намерения» или, как мы обозначили данный феномен, «моральной квазипорочностью» ИИ. При всем внешнем подобии его человеческим порокам речь здесь идет о технических дефектах в программном обеспечении ИИ, выражающихся в алгоритмической предвзятости (Algorithmic Bias), а также о ценностной несогласованности ИИ (AI alignment). На наш взгляд, такого рода «моральные девиации» будут только нарастать при дальнейшем, неконтролируемом усложнении систем ИИ и всё более уподобляться феномену естественной человеческой порочности, достигая предела возможной «свободы выбора» негативных решений (квазисвободы воли ИИ). Комментарии 1. Как известно, Френсис Бэкон выделял 4 разновидности идолов сознания: Идолы рода – ложные представления о вещах, обусловленные несовершенными органами чувств человека и ограниченностью его разума. Идолы пещеры – искаженные представления об окружающей действительности, связанные с индивидуальным воспитанием каждого человека, уровнем его образования, а также со слепым следованием за авторитетами. Идолы рынка – ложные представления людей, вызванные искаженным употреблением слов, особенно популярных на торговых площадях и рынках. Идолы театра – искаженные представления людей, которые они позаимствовали из разных философских систем. 2. В связи с этим возникает требование «согласования ИИ» (AI alignment), состоящее в том, чтобы поведение систем искусственного интеллекта было согласовано (совмещено, выравнено) с человеческими ценностями [6]. Согласование ИИ направлено на то, чтобы совмещать системы ИИ в соответствии с предполагаемыми целями, предпочтениями и этическими принципами человека или группы людей. Система ИИ считается согласованной, выравненной, если она способствует достижению предполагаемых целей. Несогласованная система ИИ отклоняется в сторону смещенных целей [6].
Made with FlippingBook
RkJQdWJsaXNoZXIy ODQ5NTQ=