Новую LLM talkie обучили на текстах до 1931 года
1 мин

Трое ИИ-исследователей, включая Алека Редфорда (соавтора GPT 1.0), опубликовали «винтажную языковую модель» talkie с 13 миллиардами параметров. Она обучена исключительно на текстах, опубликованных до 1931 года, так что ограничена этим и в знаниях о мире, и в стилистике текста. Пообщаться с ней можно на официальном сайте.