Гуманитарные ведомости. Вып. 3(51) Т2 2024 г

14 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. deception and false information on the part of AI. The article emphasizes that this is not about the freedom to choose a vicious decision based on conscious intent, but about the effect of Algorithmic Bias and the lack of AI alignment. According to the author, such moral deviations will increase with the further development and complexity of AI systems and will increasingly resemble the phenomenon of human depravity, reaching the limit of possible freedom to choose negative decisions (quasi-free will of AI). Keywords: artificial evil, artificial intelligence, moral risks, moral quasi-depravity, Algorithmic Bias, AI Alignment, generation of false information. DOI 10.22405/2304-4772-2024-3-2-13-22 Введение Термин «искусственное зло» (Artificial evil) в его философско-этическом значении впервые был употреблен Л. Флориди и Дж. Сандерсом в статье «Artificial Evil and the Foundation of Computer Ethics» (2001). Авторы статьи в частности отмечали, что общепринятое деление зла на моральное (насилие, бесчеловечность, жестокость, предательство, вероломство и т.п.) и естественное (стихийные бедствия, болезни, голод и т.д.) должно быть дополнено «для более адекватной таксономии» еще одним видом гибридного зла, которое авторы предложили назвать « искусственным злом» , поскольку оно зарождается и распространяется в автономной цифровой среде киберпространства и компьютерной этики посредством действий (решений) искусственных агентов, подпадающих под морально оценивающие суждения. Значительный интерес представляет то, как склонность к тем или иным решениям этих агентов может быть подвергнута оценке с точки зрения морального добра или зла, приобретая при этом ценностное значение «даже при отсутствии биологически разумных участников», что позволяет искусственным агентам не только совершать зло, но и «страдать от него». Тезис авторов заключается в том, что понятие «энтропийной структуры», которая инкапсулирует человеческие ценностные суждения относительно киберпространства в формально-математические модели, является достаточным для интерпретации соответствующих моральных оценок. По мнению авторов, теоретическое обоснование этой проблемы и является главной задачей информационной (цифровой) этики, которая должна быть построена на концепции больших данных, а не на традиционной для этики дихотомии «жизнь – смерть» [10, c. 55]. Предлагаемая нами в данной статье интерпретация проблемы искусственного зла ставит своей задачей объяснить этот феномен не с позиций «этики намерений», а с точки зрения эффекта алгоритмической предвзятости и несогласованности систем ИИ, порождающих феномен моральной квазипорочности в процессе непреднамеренного и непредвиденного использования данных (data). В качестве такого рода «искусственных пороков» ИИ исследователи обычно выделяют: «обман и генерацию ложной информации» [3, 4], «ложь из человеколюбия» [1], «воровство чужой информации (ИИ-плагиат») [5], «моральную беспринципность ИИ» [2, 11]. В данной статье главным предметом рассмотрения избирается феномен «обмана и ложной информации» генерируемой ИИ.

RkJQdWJsaXNoZXIy ODQ5NTQ=