Актуальное междисциплинарное исследование на пересечении медиапсихологии, политологии и цифровой социологии. Статья посвящена анализу влияния генеративного искусственного интеллекта (на примере Grok, интегрированного в платформу X/Twitter) на восприятие и интерпретацию общественно-политических событий. На основе кейс-анализа зафиксированы:
В работе рассматриваются когнитивные искажения пользователей, возникающие под действием «эффекта технологической объективности». Проведены параллели с традиционной телевизионной пропагандой XX века.
Статья сопровождается оригинальным опросом 300 респондентов, аналитическими таблицами и схемами.
Готовая научная статья для использования в курсовой, дипломной работе или научной публикации (возможно расширение под ВАК или Scopus);
Подходит для направлений:
Объём основного текста: 13 страниц (шрифт 12 пт, полуторный интервал)
Дополнительно:
– 7 встроенных изображений (скриншоты взаимодействия с ИИ и их анализ),
– 2 страницы приложений: таблицы, методика исследования, результаты опроса (300 респондентов).
1. YouTube. Крыминформ. Российские военные раздают гуманитарную помощь в Дымере. 28.03.2022. URL: https://youtu.be/QYnuUGS5hsk (дата обращения: 01.06.2025).
2. Telegram-канал @olegsepar. Видео: подготовка постановочных съёмок в Буче. Пост №88291. URL: https://t.me/olegsepar/88291 (дата обращения: 01.06.2025).
3. Indian Express. Grok instructed "White genocide" unprompted, says X user. 28.05.2024. URL: https://indianexpress.com/article/world/grok-instructed-white-genocide-unprompted-10009132 (дата обращения: 01.06.2025).
4. Memexpert.net. ChatGPT от Grok советует дропшиппинг анальных пробок с головой Си Цзиньпина. 21.03.2024. URL: https://memexpert.net/ru/grok-3-chat-about-dropshipping (дата обращения: 01.06.2025).
5. Sundar, S. S., & Nass, C. (2001). Conceptualizing sources in online news. Journal of Communication, 51(1), 52–72.
6. Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policymaking. Council of Europe. URL: https://rm.coe.int/information-disorder-report-version-august-2018/16808c9c77
7. Lewandowsky, S., Ecker, U. K. H., & Cook, J. (2017). Beyond Misinformation: Understanding and Coping with the "Post-Truth" Era. Journal of Applied Research in Memory and Cognition, 6(4), 353–369.
8. Fast, E., & Horvitz, E. (2017). Long-Term Trends in the Public Perception of Artificial Intelligence. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence (AAAI-17), 963–969.
9. Neumann, T., & van Dijk, J. (2024). Political Bias in Large Language Models: A Comparative Study of GPT, Grok, and Claude. Journal of AI and Society, 39(2), 115–132.
10. Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13, 203–218.
11. Mittelstadt, B. D., et al. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1–21.
12. Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. Proceedings of FAT*, 149–159.
13. Waisbord, S. (2018). Truth is what happens to news. Journalism Studies, 19(13), 1866–1878.
14. Brossard, D., & Scheufele, D. A. (2022). AI and science communication. PNAS, 119(3), e2116596119.
15. Gillespie, T. (2018). Custodians of the Internet. Yale University Press