Гуманитарные ведомости. Вып. 3(51) Т2 2024 г

121 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. egocentrism (my good must connect with the good of other people). Such ethics will express mercy, justice, friendship and keep the peace on earth. Keywords : AI, artificial intelligence, soul, human freedom, conscience, law, responsibility, law, ethics of science, robot. DOI 10.22405/2304-4772-2024-3-2-120-127 Актуальность исследования . Современный человек живет в условиях цифрового рабства. Наше общество потеряло духовно-нравственные ориентиры, на которых основывается наша жизнь. Проблема искусственного интеллекта становится актуальной с точки зрения развития науки и порабощения человека. Поэтому этические и правовые ограничения искусственного интеллекта необходимы для того, чтобы нейтрализовать опасность для общества. Цель статьи – определить границы, допустимые для использования искусственного интеллекта в современном обществе. Реализация поставленной цели потребовала решить следующие исследовательские задачи: 1. Показать ответственность ученого за последствия научного прогресса. 2. Выявить опасность бесконтрольного развития искусственного интеллекта. 3. Проанализировать негативные последствия влияния искусственного интеллекта на развитие человечества. 4. Выделить этические и правовые ограничения для искусственного интеллекта. Представляется ошибочным запрещать искусственный интеллект в нашей стране. Научные исследования в области искусственного интеллекта будут продолжаться независимо от нашего желания. При этом процесс цифровизации идет с резким ускорением, и делать прогнозы по поводу дальнейшего развития общества становится проблематичным. В этой ситуации нужно проанализировать текущие процессы, чтобы влиять на то, что происходит. Следовательно, возникает необходимость разработать этические нормы, в которых были бы определены критерии контроля над искусственным интеллектом. При Правительстве создана Комиссия, но она несет лишь консультативную функцию и не имеет реальной власти. Одних консультаций и рекомендаций в области применения искусственного интеллекта явно недостаточно. Исследования в области искусственного интеллекта сейчас таковы, что существующие алгоритмы и программы способны накапливать опыт, который может дать возможность самообучающемуся искусственному интеллекту вырваться за пределы контроля человеком. Поэтому следует выработать такие этические системы, которые помогли бы человеку контролировать развитие искусственного интеллекта. В этом плане можно использовать врачебный принцип «не навреди». «При этом необходимо учитывать требование этики науки. Главное в этике науки – это моральные проблемы не только проведения исследования, но

RkJQdWJsaXNoZXIy ODQ5NTQ=