Гуманитарные ведомости. Вып. 3(51) Т2 2024 г
122 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. и публикации, консультации и участия в экспертизах. Главный вопрос – это вопрос ответственности за последствия научного прогресса. И эта ответственность имеет альтернативы. Во-первых, наука развивается по законам формальной логики, где противоречие – это ошибка, а мир противоречив. Отметим, что добра и зла нет в формальной логике, объективность науки является главной для учёного. Поэтому отказ учёного от участия в опасных для общества исследованиях ничего не изменит. Однако ответственное поведение позволяет избежать негатива. Проблема добра и зла появляется только в ответственном поведении. Во-вторых, негативные последствия порождаются не научной деятельностью, а социальными силами, которые контролируют практику применения этих достижений. Выгода рождает зло и безответственность. Поэтому, главное – не только личная, но и социальная ответственность. Надо учитывать «горький опыт». Подчеркнём, что юридический кодекс не имеет реальной силы – это лишь моральный призыв. В-третьих, наряду с этическим саморегулированием научной деятельности, которое осуществляется внутри научного сообщества, задачи регулирования берут на себя органы власти, это ведёт к напряжению общества и научного сообщества. При этом контролёры оказываются невежественными, но имеющими власть» [5, с. 16]. Отметим, что задачи такого содержания и уровня сложности требуют ответов на следующие вопросы: «Во-первых – что я должен делать? Каким нормам следовать? В чём заключается смысл жизни? И что такое добро и зло? Как возможна свобода воли? Во-вторых – как я могу соединить моральный мотив (следование долгу) со своими интересами и желанием счастья? В-третьих – как моё благо может соединиться с благом других людей? Такая этика выражает милосердие, справедливость, дружбу» [5, с. 16]. Для развития технологий необходимо этическое обоснование внедрения технологий в повседневную жизнь человека. Размышляя о роли искусственного интеллекта в мире ученые проявляют беспокойство о социальной безопасности технологий. Человек ограничен временем жизни, опытом, объемом памяти. Вместо того, чтобы продумать этические правовые ограничения, мы изобретаем цифровые расширители и перекладываем на эти новинки всю ответственность. В настоящее время знания становятся условием благополучия человека. А знания можно получить, имея доступ к информации и навык работы с ней. Создаются законы запретительного типа «нежелательной» информации. В этом хаосе информации нужен контроль, который должен стать основой цифрового порядка. В этически сложном мире рождается такое дитя как OpenAI . Учителя этого OpenAI тренируют его, обучают его находить ответы на сложные вопросы самостоятельно. Тут возникает этическая проблема: каким образом можно сохранить авторские права. Подобное сверхзнание способно привести к порабощению человечества искусственным интеллектом и машинами, поэтому не стоит «мудрствовать лукаво». И здесь возникает опасность проникновения в
Made with FlippingBook
RkJQdWJsaXNoZXIy ODQ5NTQ=