Гуманитарные ведомости. Вып. 3(51) Т2 2024 г
19 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. подобием свободного человеческого зла. В случае с искусственным интеллектом основой такого подобия в настоящий момент является эффект алгоритмической предвзятости, который несет в себе определённую долю хаотичности человеческой природы зла, напоминающей его истинно свободное волеизъявление. «Алгоритмическая предвзятость» определяется как неограниченный ряд систематически повторяющихся ошибок в программе искусственного интеллекта, которые приводят к «несправедливым» , необъективным результатам, связанным с предпочтительным выбором тех или иных решений и действий со стороны ИИ. Предвзятость может возникать из-за непреднамеренного или непредвиденного использования данных, связанного с их сбором, кодированием, анализом, рекомендациями. Это чревато ошибками непреднамеренного нарушения конфиденциальности, усиления социальных предубеждений по признаку языка, пола этнической принадлежности, религиозности и т.д. Предвзятость может возникать в алгоритмических программах также в результате уже существующих культурных, социальных или институциональных ожиданий. Исследование алгоритмической предвзятости в первую очередь касается алгоритмов, которые отражают «систематическую и несправедливую» дискриминацию. Поскольку алгоритмы часто считаются нейтральными и непредвзятыми, они могут ошибочно казаться более авторитетными, чем человеческий опыт и в некоторых случаях их использование может снимать с человека ответственность за их результаты [7]. С философской точки зрения «алгоритмическая предвзятость» означает, что естественный (человеческий) интеллект не способен достичь уровня технологической объективности при создании искусственного интеллекта. Говоря образным языком Френсиса Бэкона, человеческий разум не способен избавиться от идолов сознания [Комм.1]. Используя аргументацию Канта, можно сказать, что априорные начала познания (пространство, время, причинность и др.), определяющие границы нашего опыта, связанного с изобретением ИИ, не позволяют нам добиться чистой технологической (или алгоритмической) объективности. Следствием этого является несогласованность систем искусственного интеллекта с ценностными структурами человеческого сознания, которые ограничены априорными принципами технических возможностей человека [Комм.2]. Например, человек не способен создать ИИ, который воспринимал бы время как единое целое, а не как априорно ограниченную трехмерную проекцию, присущую человеческому интеллекту. У человека в принципе не может быть объективных, «чистых» данных (data) для встраивания единой целостной модели времени в программное обеспечение ИИ, в том числе на уровне нейросетей ChatGPT. Принято говорить о различных видах алгоритмической предвзятости ценностного уровня : идеологической, религиозной, правовой и др. Характерно, что все они могут быть выведены из бэконовских идолов сознания.
Made with FlippingBook
RkJQdWJsaXNoZXIy ODQ5NTQ=