Гуманитарные ведомости. Вып. 4(52) 2024 г

74 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 4 (52), декабрь 2024 г. внедрением все более мощных цифровых решений, которые никто, даже их создатели, не может понять, предсказать или надежно контролировать» [2]. Подобная перспектива поднимает метафизические вопросы не только относительно потенциальной формы искусственного или цифрового сознания, самосознания, многочисленные вопросы, являющихся предметной областью машинной этики, но и заставляет совершенно по-новому взглянуть на трудную проблему сознания («Hard problem of consciousness» по выражению автора понятия австралийского философа Д. Чалмерса) [3]. Сосредоточенная на феноменологическом аспекте сознания (феноменальном сознании), сложная проблема сознания сводится к вопросам: почему деятельность нашего мозга заставляет нас что-то чувствовать? почему и каким образом мозг порождает сознание? С одной стороны, философское осмысление искусственного интеллекта базируется на исследованиях биологического мозга – принципов функционирования естественного интеллекта, мышления, сознания. Именно эти знания являются необходимым условием проецирования биологических свойств на воспроизводимые искусственные. Однако с другой стороны, в связи с этим возникает другое необходимое условие – ответить на вопросы, поставленные трудной проблемой сознания, и на главный из них – а что такое сознание? – вопрос, представляющий на сегодняшний день одну из важных загадок науки. Недавние знаменательные события всколыхнули сообщество исследователей и специалистов сферы компьютеных технологий, заставив всерьез усомниться в невозможности искусственного сознания. Речь идет о случае, произошедшем в 2022 году с инженером Google, который попал в заголовки газет, заявив, что разрабатываемый им чат-бот «LaMDA» (аналог ChatGPT), языковая модель для диалоговых приложений, обладает разумом и проявляет признаки самосозания. В марте 2024 года внимание иссследователей в области искусственного интеллекта привлекла новейшая большая языковая модель (LLM - large language model), разработанная компанией Anthropic AI. Claude 3 Opus превзошла GPT-4 от OpenAI в ключевых тестах, используемых для оценки возможностей генеративных моделей искусственного интеллекта . Чат-бот не только успешно справился с тестом «Иголка в стоге сена», но и проявил осознанность и признаки рефлексии, указав на то, что ему стало понятно, что его проверяют [4]. В другом случае он осознал, что является языковой моделью и не может испытать эмоции напрямую. Подобная демонстрация признаков автономного мышления, осознанности и, в некоторой степени, рефлексии и интроспекции не могла не вызывать оживленные отклики специалистов в области компьютерных наук и философов. Тем не менее, дебаты вокруг истинности сознания и автономии Claude 3 Opus остаются открытыми. В то время как некоторые эксперты превозносят его производительность и восхищаются проявленными признаками самосознания, другие настаивают на том, что подобное поведение, вероятно, не что иное, как

RkJQdWJsaXNoZXIy ODQ5NTQ=