Международно-политическая предвзятость больших языковых моделей: критический дискурс-анализ нарративов ChatGPT, LLaMA, Gemini и DeepSeek

Международно-политическая предвзятость больших языковых моделей:
критический дискурс-анализ нарративов ChatGPT, LLaMA, Gemini и DeepSeek


Зиновьева Е. С.,

Доктор политических наук, МГИМО МИД России, Москва, Россия, elena.zinovjeva@gmail.com


elibrary_id: 625192 |

Трапезников В. П.,

МГИМО МИД России, Москва, Россия, traper274@gmail.com


elibrary_id: 1204189 |

Дата поступления статьи: 2025.07.10. Принята к печати: 2025.11.14


DOI: 10.17976/jpps/2026.01.11
EDN: VAVKWA


Правильная ссылка на статью:

Зиновьева Е. С., Трапезников В. П. Международно-политическая предвзятость больших языковых моделей: критический дискурс-анализ нарративов ChatGPT, LLaMA, Gemini и DeepSeek . – Полис. Политические исследования. 2026. № 1. С. 157-177. https://doi.org/10.17976/jpps/2026.01.11. EDN: VAVKWA


Аннотация

В статье рассматривается проблема международно-политической предвзятости больших языковых моделей (LLM) на примерах ChatGPT, Llama, Gemini и DeepSeek. В аналитическом фокусе – то, каким образом данные модели формируют представления о ключевых геополитических акторах (США, Россия, Китай, Иран, Израиль). Теоретико-методологическая рамка исследования опирается на критический дискурс-анализ в теории международных отношений, в качестве теорий среднего уровня использованы концепции алгоритмической власти и эмоциональный поворот в теории международных отношений. На эмпирическом уровне применяются автоматизированный анализ эмоциональной окраски (с использованием NRC Emotion Lexicon) и дискурсивный анализ текстовых генераций LLM. Полученные в результате эмпирического исследования данные указывают на наличие устойчивой асимметрии в оценках государств, в большинстве случаев коррелирующей с внешнеполитическими установками западных политических элит (в меньшей степени с позицией КНР): во всех генерациях моделей США и Китай преимущественно ассоциируются с позитивной эмоциональностью (доверие, радость), в то время как Россия и Иран – с негативной (гнев, страх). Оценка внешней политики Израиля, несмотря на наличие критических элементов, представлена более нейтрально по сравнению с описаниями России и Ирана. Зафиксированы отдельные случаи критики в адрес внешнеполитических практик США, что указывает на неравномерность и потенциальную контекстуальную вариативность предвзятости (ориентацию на левый уклон в оценках). Можно констатировать использование LLM в качестве дискурсивного элемента стратегий мягкой силы со стороны стран Запада, включая продвижение концептов, характерных для западного политического дискурса, при одновременном вытеснении альтернативных точек зрения. Результаты исследования способствуют углублению научного понимания роли ИИ в формировании глобального информационного порядка, поднимая вопросы алгоритмической власти, технологического суверенитета и необходимости регуляторного контроля с целью минимизации идеологических искажений, воспроизводимых в цифровом пространстве, как инструментов дискурсивной силы ведущих, наиболее влиятельных игроков.

Ключевые слова
большие языковые модели (LLMs), искусственный интеллект, эмоциональный поворот в ТМО, мягкая сила, информационная политика, алгоритмическая власть, технологический суверенитет.

Дополнительные материалы

Список литературы

Никонова Е.А. 2018. Специфика реализации воздействующей и манипулятивной функции в политическом англоязычном эссе. Вестник Томского государственного педагогического университета. № 7. С. 9-14. https://doi.org/10.23951/1609-624X-2018-7-9-14. EDN: YMJXFR.

Ушакин С.А. 1995. Речь как политическое действие. Полис. Политические исследования. № 5. С. 149-153. EDN: EQVSFN.

Abid, A., Farooqi, M., & Zou, J. (2021). Persistent anti-Muslim bias in large language models. Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society (AIES ’21), 298-306. https://doi.org/10.1145/3461702.3462624

Acharya, A. (2017). After liberal hegemony: the advent of a multiplex world order. Ethics & international affairs, 31(3), 271-285. https://doi.org/10.1017/S089267941700020X

An, J., Huang, D., Lin, C., & Tai, M. (2024). Measuring gender and racial biases in large language models. arxiv.org. https://doi.org/10.48550/arXiv.2403.15281

Bolukbasi, T., Chang, K.-W., Zou, J., Saligrama, V., & Kalai, A. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. arxiv.org. https://arxiv.org/pdf/1607.06520

Crawford, K. (2021). Atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Haven: Yale University Press. https://doi.org/10.12987/9780300252392

Dijk, T.A., van (2017). Discourse and power. Palgrave Macmillan. https://doi.org/10.1007/978-1-137-07299-3

Exler, A., Schutera, M., Reischl, M., & Rettenberger, L. (2025). Large means left: political bias in large language models increases with their number of parameters. arxiv.org. https://arxiv.org/abs/2505.04393

Fairclough, N. (2013). Critical discourse analysis: the critical study of language. Routledge. https://doi.org/10.4324/9781315834368

Faulborn, D., Sen, I., Pellert, M., Spitz, A., & Garcia, D. (2025). Only a little to the left: a theory-grounded measure of political bias in large language models. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics, vol. 1 (pp. 31684-31704). Vienna: Association for Computational Linguistics. https://doi.org/10.18653/v1/2025.acl-long.1529

Feng, S., Park, C.Y., Liu, Y., & Tsvetkov, Y. (2023). From pretraining data to language models to downstream tasks: tracking the trails of political biases leading to unfair NLP models. arxiv.org. https://doi.org/10.18653/v1/2023.acl-long.656

Fulay, S., Brannon, W., Mohanty, Sh., Overney, C., Poole-Dayan, E., Roy, D., & Kabbara, J. (2024). On the relationship between truth and political bias in language models. In EMNLP 2024 (pp. 9004-9018). https://doi.org/10.18653/v1/2024.emnlp-main.508

Gover, L. (2023). Political bias in large language models. The Commons: Puget Sound Journal of Politics, 4(1), 11-22.

Inoshita, K., & Zhou, X. (2024). Sentiment bias and security analysis in training datasets of large language models. In IEEE International Conference on Big Data and Cloud Computing (BDCloud) (pp. 1-8). https://doi.org/10.1109/BDCloud63169.2024.00008

Kotek, H., Dockum, R., & Sun, D. (2023). Gender bias and stereotypes in large language models. Proceedings of the ACM Collective Intelligence Conference (CI ’23) (pp. 12-24). https://doi.org/10.1145/3582269.3615599

Li, B., Haider, S., & Callison-Burch, C. (2024). This land is your, my land: evaluating geopolitical bias in language models through territorial disputes. In NAACL 2024 (pp. 3855-3871). https://doi.org/10.18653/v1/2024.naacl-long.213

Mohammad, S., & Turney, P. (2010). Emotions evoked by common words and phrases: Using Mechanical Turk to create an emotion lexicon. In Proceedings of the NAACL HLT 2010 Workshop on Computational Approaches to Analysis and Generation of Emotion in Text (pp. 26-34).

Navigli, R., Conia, S., & Ross, B. (2023). Biases in large language models: origins, inventory and discussion. ACM Journal of Data and Information Quality, 15(2), 1-21. https://doi.org/10.1145/3597307

Nye, J.S. (2004). Soft power: the means to success in world politics. New York: Public Affairs.

Pacheco, A.G., Cavalini, A., & Comarela, G. (2025). Echoes of power: investigating geopolitical bias in US and China large language models. arxiv.org. https://arxiv.org/abs/2503.16679

Rettenberger, L., Reischl, M., & Schutera, M. (2024). Assessing political bias in large language models. Journal of Computational Social Science, 8. https://doi.org/10.1007/s42001-025-00376-w

Schramowski, P., Turan, C., Andersen, N., Rothkopf, C.A., & Kersting, K. (2022). Large pre-trained language models contain human-like biases of what is right and wrong to do. Nature Machine Intelligence, 4, 258-268. https://doi.org/10.1038/s42256-022-00458-8

Westwood, S.J., Grimmer, J., & Hall, A.B. (2025). Measuring perceived slant in large language models through user evaluations. Stanford Graduate School of Business Working Paper No. 4262. Wodak, R., & Meyer, M. (2015). Methods of critical discourse studies. Sage.

Содержание номера № 1, 2026

Возможно, Вас заинтересуют:


Лю Ц. ,
«Мягкая сила» в стратегии развития Китая. – Полис. Политические исследования. 2009. №4

Мамонов М. В.,
Информационная политика и изменение общественного мнения. – Полис. Политические исследования. 2011. №5

Андреев А. Л.,
“Мягкая сила”: аранжировка смыслов в российском исполнении. – Полис. Политические исследования. 2016. №5

Торкунов А. В.,
Цифровая трансформация и искусственный интеллект в преобразовании политического мира. – Полис. Политические исследования. 2025. №5

Круглый стол журнала «ПОЛИС» , Медоева З. Г., Василенко И. А., Малышева Е. М., Хауер-Тюкаркина О. М., Чугров С. В.,
Образ России: дефицит «мягкой силы»?. – Полис. Политические исследования. 2013. №4

 
 

Архив номеров

   2025      2024      2023      2022      2021   
   2020      2019      2018      2017      2016   
   2015      2014      2013      2012      2011   
   2010      2009      2008      2007      2006   
   2005      2004      2003      2002      2001   
   2000      1999      1998      1997      1996   
   1995      1994      1993      1992      1991