Гуманитарные ведомости. Вып. 3(51) Т2 2024 г
123 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. личную жизнь каждого человека. Все перемещения людей будут прозрачными, поэтому причинить вред человеку или лишить, например, его свободы будет вполне доступным. Открываются большие возможности сфальсифицировать «доказательства», которые могут быть предоставлены такой интеллектуальной системой. Мы видим, что искусственный интеллект, современные нейронные сети очень правдоподобно могут уже генерировать «фейки». Следует подчеркнуть, что искусственный интеллект способен вырабатывать собственные решения, касающиеся вооружения. Поэтому возникает необходимость как правовых, так и моральных ограничений, которые искусственный интеллект не смог бы обойти [1]. Отсутствие подобных ограничений способно привести к тому, что боевые роботы уничтожат человечество, если решат, что люди им не нужны. И это вызывает вполне понятный протест, так как машина и мораль – вещи, несовместимые по определению. У человека, как существа духовного, есть душа. И сложный моральный выбор осуществляется душой и сердцем. Роботы не имеют подобной возможности по той причине, что у них отсутствует как душа, так и совесть. Конечно, в научной фантастике встречается такое понятие как «синтетическая душа», однако это вымысел, от реальности весьма далекий. Душа человека бессмертна и содержит в себе образ Божий, который запрограммировать невозможно. Программы по разработке ИИ-вооружения уже получают финансирование в некоторых странах со стороны правительства. Поэтому ИИ- оружие представляет бόльшую опасность, чем оружие, которым управляет человек. Один из возможных сценариев развития технократического общества – восстание машин. Как известно, если технокра́тия является формой устройства общества, где власть принадлежит техническим специалистам, то основная идея технократии состоит в том, чтобы принимать решения исходя из эффективности. Но такое принятие решения оказывается вне политики и вызывает серьезную опасность. Т.к. используются только инженерные подходы для решения любых проблем. В настоящее время возникло предложение применять искусственный интеллект в законодательной и судебной системах. Этой проблеме посвящена новая книга Е. Лариной и В. Овчинского «Искусственный интеллект. Этика и право». Над такой возможностью применения алгоритмов искусственного интеллекта человечество еще не задумывается. Но уже в близком будущем это может коснуться каждого[2, с. 2]. Возникает вопрос, что ожидает человека, если искусственный интеллект, не считаясь с нормами этики и права, вырабатывает решение свободы или заключения его в тюрьму? Интересно мнение ученых и политиков в наиболее развитых, роботизированных странах по данному вопросу. Как будет развиваться мир юриспруденции при использовании искусственного интеллекта? С какими угрозами столкнется при этом человечество? Отметим, что в этой книге впервые в России делается попытка осмыслить применение искусственного интеллекта в судебной системе [2, с. 15-
Made with FlippingBook
RkJQdWJsaXNoZXIy ODQ5NTQ=