Гуманитарные ведомости. Вып. 3(51) Т2 2024 г

21 Гуманитарные ведомости ТГПУ им. Л. Н. Толстого № 3 (51), том 2, ноябрь 2024 г. Литература 1. Как человечество воспринимает обман ИИ в различных сценариях и зачем роботы лгут // Inc.: [журнал]. [Б. м.], 2016–2024. URL: https://incrussia.ru/news/kak-chelovechestvo-vosprinimaet-obman-ii-v-razlichnyh- stsenariyah-i-zachem-roboty-lgut/. Дата публикации: 17.09.2024. 2. Мораль и этические ценности ChatGPT: есть ли у ИИ четкая нравственная позиция? // Университет Лобачевского: Институт филологии и журналистики : офиц. сайт. Н. Новгород, 2024. URL: https://fil.unn.ru/does-ai- have-strong-moral-compass/ (дата обращения: 07.11.2024). 3. Соковикова Л. Нейросети научились врать и делают это намеренно // Hi-News.ru : сайт. [Б. м.], 2006–2024. URL: https://hi-news.ru/eto- interesno/nejroseti-nauchilis-vrat-i-delayut-eto-namerenno.html. Дата публикации: 21.06.2024. 4. Нейросети умеют лгать не хуже людей // InvestFuture: медиа про финансы и инвестиции : канал на Яндекс.Дзен. URL: https://dzen.ru/b/ZFICwkRmbyrcJ34N. Дата публикации: 03.05.2023. 5. Иванов А. Является ли плагиатом то, что создано нейросетью? : [пост в блоге] // Zakon.ru : сайт / изд. группа «Закон». М., 2000–2024. URL: https://zakon.ru/blog/2023/06/26/yavlyaetsya_li_plagiatom_to_chto_sozdano_nejrose tyu. Дата публикации: 26.06.2023. 6. AI alignment // Wikipedia: The Free Encylopedia. URL: https://en.wikipedia.org/wiki/AI_alignment#Misalignment (date of request: 07.11.2024). 7. Algorithmic Bias // Wikipedia: The Free Encylopedia. URL: https://en.wikipedia.org/wiki/Algorithmic_bias (date of request: 07.11.2024). 8. Hadar-Shoval D., Asraf K., Mizrachi Y., Haber Y., Elyoseph Z. Assessing the Alignment of Large Language Models With Human Values for Mental Health Integration: Cross-Sectional Study Using Schwartz's Theory of Basic Values // JMIR Mental Health. 2024. Vol. 11. e55988. URL: https://doi.org/10.2196/55988. Published: 09.04.2024. 9. Hagendorff Т. Deception abilities emerged in large language models // PNAS: Proceeding of the National Academy of Science of the USA. 2024. Vol. 121, no. 24. e2317967121. URL: https://doi.org/10.1073/pnas.2317967121. Published: 04.06.2024. 10. Floridi L., Sanders J. Artificial evil and the foundation of computer ethics // Ethics and Information Technology. 2001. Vol. 3. P. 55–66. 11. Krügel S., Ostermaier A., Uhl M. ChatGPT’s inconsistent moral advice influences users’ judgment // Scientific Reports. 2023. 13. Article number: 4569. URL: https://doi.org/10.1038/s41598-023-31341-0. Published: 06.04.2023. 12. Roff H. AI deception: When your artificial intelligence learns to lie // IEEE Spectrum : web-site. URL: https://spectrum.ieee.org/ai-deception-when-your- ai-learns-to-lie. Published: 24.02.2020.

RkJQdWJsaXNoZXIy ODQ5NTQ=