Гуманитарные ведомости. Вып. 4(52) 2024 г

73 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 4 (52), декабрь 2024 г. Keywords: artificial intelligence, the hard problem of consciousness, exponential law of science development, qualia, digital consciousness, artificial superintelligence, large language models, neural networks. DOI 10.22405/2304-4772-2024-4-72-81 Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться и последним… /С. Хокинг/ За последнее десятилетие, и, в особенности, за последние два года произошел значительный скачок в сфере технологий искусственного интеллекта (далее ИИ). Становясь все более и более эффективным в определенных областях, ИИ зачастую превосходит по производительности ведущих экспертов. Впечатляющие разработки в области генеративного искусственного интеллекта и, преимущественно, ИИ, способного охватывать широкий спектр областей и несколько модальностей, такого как языковые модели ChatGPT от Open AI или Gemini от Google, поставили перед философами, специалистами в области компьютерных и других наук давние вопросы о способности или неспособности наделить ИИ некой формой искусственного разума и сознания. Существуют различные теории с целью выявления и оценивания потенциальной формы сознательного разума или искусственного сознания (например, бихевиористский тест Тьюринга, мысленный эксперимент «Китайская комната»). Несмотря на то, что на сегодняшний день модели искусственного интеллекта не проявляют очевидных и неоспоримых признаков оригинального автомномного мышления и сознания, некоторые специалисты в данной сфере полагают, что технологии ИИ уже достигли экспоненциальной скорости развития, которая неизбежно подводит человечество к моменту технологической сингулярности. В марте 2023 года на сайте организации Future появилось открытое письмо с призывом приостановить исследование мощных систем и разработку «гигантстких ИИ как представляющих серьезную угрозу для общества и человечества» [2], которое подписали Илон Маск (Tesla Space X), Стив Возняк (Apple) и более тысячи разработчиков ИИ и специалистов отрасли [2]. По мнению экспертов, «обучение нужно остановить, пока не появятся общие протоколы безопасности. […] продвинутый ИИ может привести к глубоким изменениям в истории жизни на Земле, и его следует планировать и управлять им с соответствующей тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не происходит. В последние месяцы лаборатории искусственного интеллекта оказались вовлечены в бесконтрольную гонку за разработкой и

RkJQdWJsaXNoZXIy ODQ5NTQ=