Пост может показаться для некоторых очевидным, но я решил всё-таки его написать, т.к. я обратил внимание, что многие, даже умные люди, сейчас ошибочно считают что современные нейросети - не умеют думать, к примеру, нейросети не могут посчитать сколько будет 2х2, они просто это помнят. Да это было так для LLM вроде gpt4 и claude-sonnet-3.5, но с приходом reasoning нейросетей (LRM) всё поменялось, они научились рассуждать. Они строят вероятностные гипотизы, далее проверяют их, в случае ошибки, переходят к проверке следующей гипотезы и так до бесконечности. Почти как человек.
В начале 2025 вышли новые олимпиадные задачи по математике, которых не существовало во время обучения всех существующих моделей включая Deepseek r1 и o1/o3. Ребята провели тесты, прикладываю результаты, см картинку, как видно, рассуждающие нейросети щёлкают олимпиадные задачки как орехи, в отличие от LLM.

Сэм Альтман заявил что их непубличная топовая LRM модель уже входит в ТОП-50 по рейтингу всех программистов мира, тогда как публичная о3 которая вышла всего два месяца тому назад находится лишь на 175-ом месте, а первая LRM o1 -- была лишь на миллионом месте. До конца года они обещают обойти человека в сфере программирования.