Ну и помимо прочего, Gemini напичкана различными фичами вроде анализа видео, общения голосом в реальном времени, поиска в интернете (хотя его возможности не идут ни в какое сравнение с Deep Research от OpenAI) и запуска кода, чего только там нет.
В контексте сервиса, у Gemini есть Deep Research, хотя он основан на Gemini 2.0 Flash.
А речь о конкретной модели вестись не может, ведь Deep Research является прикрученной технологией, которая предоставляет интерфейс для взаимодействий модели с поисковым сервисом.
Однако обе модели относятся к новому классу «мыслящих» моделей, которые анализируют ответы дольше, чтобы улучшить их точность. Это отличает их от серии Gemini 2.0, где упор делается на скорость и производительность.
В настройках нужно включить Легаси модели
Как раз таки вышло 3 модели GPT 5, это можно построить на сайте OpenAI, на страницах для разработчиков
Было бы интересно сравнить с Gemini 2.5 Pro Deep Think.
Можно использовать для таких целей модели семейства Gemini. Они легко поддаются системному промту.
Для чего-то объёмного, попробуйте Gemini 2.5 Pro, он доступен бесплатно на официальном сайте/приложении Gemini, или на сайте Google AI Studio
Самые последние, это какие именно?
Извините за такой поздний ответ
Типа так
А не так, чтобы коллекцию нельзя было изменять внутри метода?
А какие конкретно модели были протестированны?
Могу порекомендовать Gemini 2.5 Pro на пробу, хорошая модель, которая доступна бесплатно в Google AI Studio
bip <- кликабельно
В каком смысле как бренд?
Как Adidas или Xiaomi?
В контексте сервиса, у Gemini есть Deep Research, хотя он основан на Gemini 2.0 Flash.
А речь о конкретной модели вестись не может, ведь Deep Research является прикрученной технологией, которая предоставляет интерфейс для взаимодействий модели с поисковым сервисом.
Надо бы сравнить с Gemma 3 27b
А как же Gemini 2.0 Flash Thinking
Но даже так, как будто бы это легче чем то, что мы видим в C++
Ну да ладно, C# для этого и бьл создан
Хорошо на C#, написал "Hello, World!".ToLower(), и всё
В случае с char - char ToLower('А')
Так они же прикрутили Python интерпретатор