Роль генеративного ИИ в формировании общественного мнения и когнитивных искажений: на примере нейросети Grok и западного нарратива

Раздел
Гуманитарные дисциплины
Предмет
Тип
Просмотров
132
Покупок
0
Антиплагиат
90% Антиплагиат.РУ (модуль - Интернет Free)
Размещена
3 Июн в 10:08
ВУЗ
Не указан
Курс
Не указан
Стоимость
15 000 ₽
Файлы работы   
1
Каждая работа проверяется на плагиат, на момент публикации уникальность составляет не менее 40% по системе проверки eTXT.
docx
Роль генеративного ИИ в формировании общественного мнения и когнитивных искажений
1.6 Мбайт 15 000 ₽
Описание

Описание работы

Актуальное междисциплинарное исследование на пересечении медиапсихологии, политологии и цифровой социологии. Статья посвящена анализу влияния генеративного искусственного интеллекта (на примере Grok, интегрированного в платформу X/Twitter) на восприятие и интерпретацию общественно-политических событий. На основе кейс-анализа зафиксированы:

  • идеологический фрейминг и подмена источников;
  • отказ ИИ от альтернативных интерпретаций (включая случаи по Буче и гуманитарной миссии РФ);
  • случаи обвинений в адрес пользователя со стороны ИИ;
  • превращение нейросети в инструмент политико-идеологического давления.

В работе рассматриваются когнитивные искажения пользователей, возникающие под действием «эффекта технологической объективности». Проведены параллели с традиционной телевизионной пропагандой XX века.

Статья сопровождается оригинальным опросом 300 респондентов, аналитическими таблицами и схемами.

Параметры и применение

Готовая научная статья для использования в курсовой, дипломной работе или научной публикации (возможно расширение под ВАК или Scopus);

Подходит для направлений:

  • психология (медиапсихология, когнитивные искажения),
  • социология (цифровая культура, массовое сознание),
  • политология (информационные технологии, идеология, ИИ).

Объём основного текста: 13 страниц (шрифт 12 пт, полуторный интервал)

Дополнительно:

– 7 встроенных изображений (скриншоты взаимодействия с ИИ и их анализ),

– 2 страницы приложений: таблицы, методика исследования, результаты опроса (300 респондентов).

Список литературы

1. YouTube. Крыминформ. Российские военные раздают гуманитарную помощь в Дымере. 28.03.2022. URL: https://youtu.be/QYnuUGS5hsk (дата обращения: 01.06.2025).

2. Telegram-канал @olegsepar. Видео: подготовка постановочных съёмок в Буче. Пост №88291. URL: https://t.me/olegsepar/88291 (дата обращения: 01.06.2025).

3. Indian Express. Grok instructed "White genocide" unprompted, says X user. 28.05.2024. URL: https://indianexpress.com/article/world/grok-instructed-white-genocide-unprompted-10009132 (дата обращения: 01.06.2025).

4. Memexpert.net. ChatGPT от Grok советует дропшиппинг анальных пробок с головой Си Цзиньпина. 21.03.2024. URL: https://memexpert.net/ru/grok-3-chat-about-dropshipping (дата обращения: 01.06.2025).

5. Sundar, S. S., & Nass, C. (2001). Conceptualizing sources in online news. Journal of Communication, 51(1), 52–72.

6. Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policymaking. Council of Europe. URL: https://rm.coe.int/information-disorder-report-version-august-2018/16808c9c77

7. Lewandowsky, S., Ecker, U. K. H., & Cook, J. (2017). Beyond Misinformation: Understanding and Coping with the "Post-Truth" Era. Journal of Applied Research in Memory and Cognition, 6(4), 353–369.

8. Fast, E., & Horvitz, E. (2017). Long-Term Trends in the Public Perception of Artificial Intelligence. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence (AAAI-17), 963–969.

9. Neumann, T., & van Dijk, J. (2024). Political Bias in Large Language Models: A Comparative Study of GPT, Grok, and Claude. Journal of AI and Society, 39(2), 115–132.

10. Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13, 203–218.

11. Mittelstadt, B. D., et al. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1–21.

12. Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. Proceedings of FAT*, 149–159.

13. Waisbord, S. (2018). Truth is what happens to news. Journalism Studies, 19(13), 1866–1878.

14. Brossard, D., & Scheufele, D. A. (2022). AI and science communication. PNAS, 119(3), e2116596119.

15. Gillespie, T. (2018). Custodians of the Internet. Yale University Press

Вам подходит эта работа?
Похожие работы
Другие работы автора
Темы журнала
Показать ещё
Прямой эфир