В 2016 году в распоряжении компьютерной лингвистики были Doc2Vec, LSI, LDA, LSTM, TF-IDF, BM25, CNN, fasttext и подобные модели, в 2018 к ним присоединились "Трансформеры" (BERT, RoBERT, Sbert, GPT-2, GPT-3 и прочие). При всей мощи трансформеров и существенном приросте качества, эти модели одного уровня - инструменты для решения узких технических задач.
Появление в 2022 году ChatGPT ознаменовало переход количества (моделей, прилагаемых усилий, вложенных денег, выделенных вычислительных мощностей и т. п.) в новое качество.
В статье делается попытка осознать, с чем мы имеем дело и предположить, как будут развиваться большие лингвистические модели.