Гуманитарные ведомости. Вып. 3(51) Т2 2024 г

13 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. В. Н. Назаров Тульский государственный педагогический университет им. Л. Н. Толстого ФЕНОМЕН ИСКУССТВЕННОГО ЗЛА (О РИСКАХ МОРАЛЬНОЙ «КВАЗИПОРОЧНОСТИ» В РАЗВИТИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА) 2 В статье рассматривается феномен искусственного зла, выражающийся в манифестации искусственным интеллектом свойств, подобных человеческой (моральной) порочности. Обсуждаются возможные риски моральной квазипорочности (подобия-порочности) в эволюции искусственного интеллекта, в связи с усложнением и расширением его функций до уровня чат ботов GPT 4 и GPT- 5. Под «моральной квазипорочностью» ИИ понимаются ошибочные или вводящие в заблуждение ответы и решения ИИ, отклоняющихся от заданных параметров в сторону «смещенных целей» и внешне уподобляющихся человеческим порокам. В качестве такого рода пороков ИИ исследователи обычно выделяют: «обман и генерацию ложной информации», «ложь из человеколюбия», «воровство чужой информации (ИИ-плагиат»), «моральную беспринципность ИИ». В данной статье главным предметом рассмотрения избирается феномен «обмана и ложной информации» со стороны ИИ. В статье подчёркивается, что речь здесь идет не о свободе выбора порочного решения на основе сознательного намерения, а об эффекте «алгоритмической предвзятости» (Algorithmic Bias) и отсутствии согласованности в системах ИИ (AI alignment). По мнению автора такого рода «моральные девиации» будут нарастать при дальнейшем развитии и усложнении систем ИИ и всё более уподобляться феномену человеческой порочности, достигая предела возможной свободы выбора негативных решений (квазисвободы воли ИИ). Ключевые слова: искусственное зло , искусственный интеллект, моральные риски, моральная квазипорочность, «алгоритмическая предвзятость», «согласование ИИ», «генерация ложной информации». V. N. Nazarov Tula State Leo Tolstoy Pedagogical University (Tula, Russia) THE PHENOMENON OF ARTIFICIAL EVIL (ON THE RISKS OF MORAL ‘QUASI- DEPRAVITY’ IN THE DEVELOPMENT OF ARTIFICIAL INTELLIGENCE) The article considers the phenomenon of artificial evil, expressed in the manifestation of properties by artificial intelligence similar to human moral depravity. The author discusses possible risks of moral quasi- depravity (similarity- depravity) in the evolution of artificial intelligence, in connection with the complication and expansion of its functions to the level of GPT-4 and GPT-5 chatbots. The moral quasi-depravity of AI is erroneous or misleading answers and solutions of AI that deviate from the specified parameters towards biased goals and outwardly resemble human vices. As such AI vices, researchers usually highlight: deception and generation of false information, lies out of philanthropy, theft of other people's information (AI plagiarism), and moral unscrupulousness of AI. In this article, the main subject of consideration is the phenomenon of 2 Работа выполнена в рамках реализации Государственного задания Министерства просвещения РФ № 073-00033-24-05 от 23.08.2024 г. «Цифровая этика в научно- образовательных инновациях российского общества».

RkJQdWJsaXNoZXIy ODQ5NTQ=