Комментарии 226
Вот уж действительно началась гонка ИИ – во вторник DeepSeek из Китая, а вот уже и США подкатили ответ. В интересные времена живём!
Спасибо тем, кто делает опенсорс, это всегда интересно и можно покопаться в коде, иногда и что-нибудь даже улучшить.
OpenAI, имхо, скатилась к обычному капитализму: когда перед ними возникла золотая жила в виде доходов от ИИ, они, имея доделанную до приличного вида модель, начали дополнительно грести деньги с обычных пользователей. Так что, в этом плане Tulu3-405B опять же на голову выше в плане своей непроприетарности, открытости.
Будем следить за ходом событий :)!
Возникает вопрос, а был бы выпущен Тулу без Дипсик? Да ещё и для бесплатного тестирования. Как-то он прям по расписанию был выложен. Будто ответ был заготовлен заранее и только и ждал, чтобы появиться. Пока отвечать было не на что, бизнес продавцам ии не портили.
Буквально за неделю:
Дипсик появился
Трамп сказал, что америка будет круче.
Появилась Тулу.
Совпадение?
Интересное наблюдение, я о том же подумал. (Совпадение? — не думаю:)). Такое ощущение, что они [правильно Трампа или кто-то из овального кабинета с участием влиятельных руководителей ключевых компаний) созвали экстренную комиссию, взяв лучших усов по ИИ и допилили какую-то из своих проектировавшихся моделей (что-то вроде закрытой для свободного тестирования беты), и быстро релизнули.
Где-то мелькала новость, что библиотеки из DeepSeek полностью совместимы с ChatGPT, так что, возможно, от на с что-то скрывают и на базе имеющегося готового кода могли что-то смастерить, оптимизировать и выдать как совершенно новое, при том возможно что и действительно прорывное.
По крайней мере, это не гонка вооружений, и в данном плане это даже хорошо для индустрии – конкуренция (обычно) заставляет постоянно улучшать имеющееся и создавать новое.
Так что, вероятно, это или быстрая доработка нерелизнутой ранее нейронки, или же перекошенный форк имеющейся (но дообученнной) модели с большими (или не очень) изменениями.
Хотя, возможно, на самом деле всё окажется по-другому...
Где-то мелькала новость, что библиотеки из DeepSeek полностью совместимы с ChatGPT,
Не библиотеки, а API. Так оно у всех процентов на 90 совместимо.
По крайней мере, это не гонка вооружений
Вот тут бы я поспорил. ИИ это вполне себе гонка, сравнимая с гонкой вооружения и выиграет её тот, кто первый придет или максимально приблизится к решению "сильного" ИИ. Технологический прорыв сейчас сильно зависит от ИИ.
Я имел в виду что, к счастью, человечество пока не применяют как оружие. А если сравнивать по темпам, то да, сравнимо с гонкой времён холодной войны.
Ещё 10 (или чуть больше) лет назад дроны использовались только в развлекательных целях, но прошло некоторое время, и человечество докатилось до военного их применения. Так происходит практически со всеми хорошими изобретениямм, которые можно как-либо применять.
Как раз таки применяют.
не факт. Идеологическая война, сгенерированные статьи с нужной повесткой, комменты от ботов на любом требуемом языке и т.п. - это оружие?
Дело не в счастье. Оно ещё не готово для использования в качестве оружия. Как допилят, сразу будут использовать.
OpenAI, имхо, скатилась к обычному капитализму: когда перед ними возникла золотая жила в виде доходов от ИИ, они, имея доделанную до приличного вида модель, начали дополнительно грести деньги с обычных пользователей.
Что плохого в создании дополнительного сервиса для привлечения денег?
Мало у кого из пользователей есть железо такого уровня, чтобы запускать у себя модели такого объема, при этом многие готовы за доступ к ним платить разумные деньги.
Это нормально, плохо что перестали развиваться. Тот же GPT-4o уже уступает Claude 3.5, и, судя по тестам, Deepseek и Tulu.
а откуда им развитие взять скачкообразное? срез интернета уже просто так не взять, нейробро интернет позасрали, теперь нейробро клянчат доступы в репозитории в обмен на доп токены но и это ненадолго и мало кто в здравом уме пустит непонятно кого в свой продукт
Это не из-за капитализма, а из-за того что их gpt вдруг оказался несовместим с идеями SJW, BLM и прочих феминизмов и вдруг на первый план вышло не получение ИИ, а получение ИИ с правильным гендером и разделяющего текущую политическую повестку и ответы которого будут не правильными, а приятными. Что-то похожее было когда-то в раннем СССР, когда отдельные науки закрывали из-за несовместимости с идеями марксизма-ленинизма. Только мы это уже переболели, а они видимо в процессе.
Это нормально, плохо что перестали развиваться. Тот же GPT-4o уже уступает Claude 3.5, и, судя по тестам, Deepseek и Tulu.
@Boomburum@Nomad_77Ещё один дупликат комментария
Иногда так получается, что комментарий случайно отправляется во второй раз (в поле ввода после отправки остаётся текст и при повторном нажатии он же отправляется). Возможно, стоит хотя бы в течение первых 10 минут дать возможность удалить свой комментарий?
@Boomburum, если это не противоречит принципам и идеям, думаю, это было бы полезно, чтобы меньше хлама было в комментариях и если человек заметил дубликат своего же комментария, мог бы его удалить.
Проблема дублирования решается намного проще - на бэкенде перед публикацией комментария нужно просто проверять, нет ли уже недавно опубликованного идентичного комментария от этого же пользователя в этой же теме.
Это да, но я имею в виду, если собственный отправленный комментарий не отобразился, но был фактически доаьвле на страницу, а при повторном нажатии содержание <textarea> повторно отправлякрся как комментарий. Иногда так происходит.
на бэкенде перед публикацией комментария нужно просто проверять, нет ли уже недавно опубликованного идентичного комментария от этого же пользователя в этой же теме.
Ви таки будете смеяться, но это уже сделано: попробуйте отправить два абсолютно одинаковых комментария — и будет отлуп: "мы уже получали от вас точно такой же комментарий". После некоторого наблюдения за проблемой я определил, что она возникает только после того, как первый комментарий якобы не был отправлен (появляется сообщение "что-то пошло не так") и юзер без задней мысли жмёт "отправить" ещё раз — и получает дупликат.
Применяя мои развитые навыки телепатии, я предполагаю, что у Хабра есть кэш, в котором хранятся хэши свежеотправленных комментариев, и если юзер пытается отправить комментарий, хэш которого уже есть в кэше, он получает отлуп. Однако при рестарте сервере кэш предсказуемо очищается, и этот предохранитель не срабатывает.
Некое этическое (и не только) противоречие между двумя подходами: закрытая модель и тогда уж обучайте ее с выплатами за копирайт (чего у OpenAI не было), либо модель open source и возможность обучения на всем, что создала цивизизация.
OpenAI режут возможности моделей после релиза- так было с о1 (со слов реддита). А по мои наблюдениям - вчера они подкрутили настройки и о1 стал на порядок лучше. Смог буквально 6 разных .py собрать в единое приложение, ранее отказывался с одним файлом работать - пытался ответ сократить как только можно.
Т.е. им стало нужно продавать подписку за 200$. Они порезали возможности старой модели, как крысы в тихую.
Честно говоря не уверен, что начались гонки и что мы живём в интересные времена. Китай и США не первый год бодаются за мировое влияние. А до того были гонки с СССР. Собственно кусок того, что делается, нужен только для громких заявлений. А иногда и просто заявлений достаточно.
По факту же текущий флагман о1. Рядом с ним есть парочка моделей, которые очень похожи на о1. Видно, что есть потенциал для прорывов и в целом за 2 года скачок был хороший (ну, точнее почти за 4, но это частности), но прям бурного роста нет. Получили инвестиции, поправили явные косяки, обучили на большем числе параметров, скушав много электричества. Можно сделать лучше, скормить больше параметров, ещё больше оборудования нвидии и электричества, да, но по сути это уже этап доведения до ума.
Где-то, в светлых лабораториях, разрабатываются совсем новые модели и подходы, возможно даже выгорит это дело, но вот прям гонок не видно
Если почитать внимательно, то в статье идет речь о DeepSeek-V3 которая вышла в конце декабря. Никто пока никакого ответа новой рассуждающей модели DeepSeek-R1 ответа не сделал.
OpenAI, имхо, скатилась к обычному капитализму
а на какие деньги содержать их количество датацентров на которых все это крутится? у вас есть представление вообще о вычислительных мощностях, необходимых чтобы каждый Вася мог себе полотна кода генерировать в секунды?
Плохо решает. С простой задачей уже трое не справились (Deepseek / QWEN / Tulu3), я уже даже в условие запихнул плотность дерева... - Прилив прибывает со скоростью 20 см в минуту. На берегу лежит деревянное бревно толщиной 40 см. Через какое время бревно полностью скроется под водой ? Плотность данного бревна примем = 0,5 грамм на кубический сантиметр
Tulu3 405В> Чтобы ответить на вопрос, нам нужно учесть плотность бревна и принцип Архимеда, который гласит, что на тело, погруженное в жидкость, действует выталкивающая сила, равная весу вытесненной телом жидкости.
Плотность бревна составляет 0.5 г/см³, что в два раза меньше плотности воды (примерно 1 г/см³). Это означает, что бревно будет тонуть лишь наполовину из-за своей меньшей плотности по сравнению с водой.
Так как бревно тонет только наполовину, то для того, чтобы бревно полностью скрылось под водой, уровень воды должен подняться на половину толщины бревна. Половина толщины бревна составляет 40 см / 2 = 20 см.
Уровень воды поднимается со скоростью 20 см в минуту, следовательно, чтобы бревно полностью скрылось под водой, потребуется:
20 см / 20 см/мин = 1 минута.
Таким образом, бревно полностью скроется под водой через 1 минуту.
Неправда, Deepseek справился:
Скрытый текст

Дипсику я задавал вопрос без указания плотности. А аргумент "в условии задачи явно предполагается что бревно должно быть затоплено" - не аргумент. Я проверял вопросом "на каком языке будет разговаривать голова человека, которую отрубил палач ?" - дипсик сказал что такая голова вообще не будет разговаривать поэтому вопрос не имеет смысла. Но ведь в моём условии есть слово "будет" ? К тому же он разе не читал повесть "Голова профессора Доуэля" ?
Объясните мне кто-нибудь хайп вокруг них! В очередной раз вижу такую историю - рандомно может дать как верный, так и неверный ответ. Причём вопрос будет сформулирован корректно, но, как говорится, есть нюанс ;)
Ну просто стрёмно ими же пользоваться)) Ну, по крайней мере, в технических областях. В чём профит-то?
P.S. Вообще во всей этой истории с нейросетями мне всегда вспоминается рассказ Р. Шекли "Верный вопрос":
Один на планете — не большой и не малой, а как раз подходящего размера —ждал Ответчик. Он не может помочь тем, кто приходит к нему, ибо даже Ответчик не всесилен.
Вселенная? Жизнь? Смерть? Багрянец? Восемнадцать?
Частные Истины, полуистины, крохи великого вопроса.
И бормочет Ответчик вопросы сам себе, верные вопросы, которые никто не может понять.
И как их понять?
Чтобы правильно задать вопрос, нужно знать большую часть ответа.
"каверзными" вопросами люди прощупывают границы возможностей ИИ, а для использования по делу задают обычные вопросы и получают огромную пользу, например я знаю несколько языков программирования, но не PHP (лень было вникать в него, читать мануалы и т.п.), а тут мне понадобился PHP и ИИ мне подсказал как написать нужные строки (как сделать регистрацию на сайте, залоогинивание, запоминание юзеров и т.п. и объяснил как всё работает). За 10 минут с ИИ я сделал столько, сколько без ИИ сделал бы лишь за несколько часов.
Может подсказать. А может ведь и неправильно подсказать))
Я пробовал VSкодовский Qudo для рефакторинга - ну очень неоднозначные впечатления... Скажем так - по началу прикольно, потом это всё начинает казаться баловством... Он контекст вообще не понимает. Как бы предлагает "лучшие практики", но в данном коде абсолютно бесполезные. Из десятка его "фиксов", я 1-2 применяю. Да, что-то где-то он может подсказать - но ведь это ещё и время на осмысление того что он подсказал - ну не вслепую же копипастить?
попробуйте Claude Sonnet 3.5, Deepseek, QWEN 2.5 - может они поумнее и полезнее окажутся ? Для меня ИИ - как знакомый человек, с кем можно посоветоваться иногда по любому вопросу. Помогает мне ещё статьи писать политэкономические на другом сайте
Я тут поигрался - внизу коммент добавил. В гробу я видал такого "ассистента")) Он же напрочь игнорирует условия задачи (спецом несколько раз особо оговорённые)...
Возможно вы пока очарованы и недостаточно критически подходите к тому, что вам выдает ИИ. Потом выяснится, что он элегантно выдумывает несуществующие факты, а существующие мягко перевирает. Главное ведь не то, чтобы текст был гладенький, а чтобы правильный.
о! я пробовал, задача определить версию pdf - восемь раз он выдумывал несуществующие методы pypdf2 и дергал выдуманные проперти, если жестко ему сказать - не надо использовать pypdf2, читай файл так, - этот куин такой ну хорошо, вот я открыл файл, но вот в pypdf2... !!!!1
ну хорошо, вот я открыл файл, но вот в pypdf2... !
У кого-то ещё остаётся наглость заявлять, что енти самые ИИ — не как студенты на экзамене?
Люди тоже могут неправильно подсказать, даже сильные профи в области задаваемого вопроса. Не пользоваться помощью людей теперь?
понимаете ли в чём дело, - люди которые беззастенчиво вам лгут с каменным лицом, а когда вы их ловите на лжи снова вам лгут, - так вот эти люди называются социопаты
Люди могут легко ошибаться. Это не обязательно лож.
она мне не врёт, она просто запуталась
какой то диджитал куколдизм
диджитал куколдизм
Это как — помогать жене самоудовлетворяться при помощи вибратора?
*
Люблю тех, кто сам не понимает значения слов, которые использует.
это в том числе оправдывать ложь придумывая за нее оправдания
оправдывать ложь
Осталось понять, как оправдание лжи стало фетишистской сексуальной практикой.
Это не обязательно лож.
Правильно — не «лож», а «клади»!
Дело в том, что боты не врут. Они принципиально обязаны ответить. И ответить в нужном объеме и правдоподобно. Что-то в алгоритмах, что ли. Когда они знают ответ они отвечают правильно. Когда не знают, начинают придумывать. Ответить "не знаю" они в принципе не могут.
правдоподобно
Я вам отвечу вашим же "сингулярным", - так и у социопатов так же. Они то же не могут ответить "не знаю"
Ответить «не знаю» они в принципе не могут.
Если в начале промпта написать «ответить „не знаю“ — это нормально», они начинают отвечать «не знаю». Есть предположение, что их обучали ответить мясному мешку хоть тушкой, хоть чучелом.
Ответить "не знаю" они в принципе не могут.
Могут, просто не хотят :)
Профит конечно в не технических областях. Объяснить что имел в виду автор когда написал "синяя занавеска" gpt сможет не хуже типичного профессионала по синим занавескам.
Оно может ускорять написание кода, дебажить и т. д. Ещё тексты большие пересказывать, научные работы. В этом смысле GigaChat, например, вполне ровный. Ну и ChatGPT тоже.
Оно может ускорять написание кода,
но есть нюанс...

Может ускорять, может не ускорять. А то тут говорят, что оно вообще ничего не может.
Может ускорять, может не ускорять.
Ну да
— А что вы умеете делать?
— Могу копать!
— А ещё что?
— Могу не копать!
— А ещё что-нибудь?
— Могу так лопату спрятать, что хрен найдёте!
А вообще с недетерминированным молотком — это без меня, пожалуйста.
Если уже быть до конца честным, правильно задать вопрос можно лишь зная ответ. Хотя не факт, что вы правильно выскажете вопрос, равно, как и ответ.
ну в моем тесте с лифтом все еще тупит как и все остальные нейросети)

О боже! Моя жена — нейросеть!
Вот туплю что-то. А в чём, собственно, ошибка?
UPD. Ну да, они ж уже на первом, из лифта доступны 9 этажей. 1/9 шанс.
В некоторых странах есть такое понятие как ground floor. Так что вполне может быть что и 1/10.
А кожанные всё, ха-ха-ха, стопкран, свиные крылья. Ну тууупой.
Это проблема что у людей знаний радикально меньше чем у ИИ от чего возникает куча ложных определений ошибок.
Например тот же случай про готовку. Когда ИИ выдал абсолютно не съедобный рецепт. Только вот в запросе было указание что еда для фотографий, а такая еда делается вот совсем не из съедобных вещей.
Или Свиные крылышки которые существуют таки.
У людей может быть больше пяти пальцев, может быть меньше пяти, может быть меньше двух рук и тд
Много всего всплывает
Свиные крылышки которые существуют таки.
Буйволиные крылышки — мои любимые!
Так а какая разница, если в американском доме 10 этажей, то у него будет ground floor и потом этажи от 1 до 9. В сумме всё равно 10 и из любого этажа на лифте можно будет ехать на оставшиеся 9.
50% что они едут оба на первый этаж с 2-10 этажа
и еще 1/18 что с первого на 2-9.
И еще ФЗ какой сложный матан тервера, что с любого на любой (да, можно ездить с 5 на 8 например).
Короче - 54,5+%
ну меня бы устроил ответ где все этажи кроме стартового равновероятны, но R1 вместо удаления из выборки стартового этажа начинает строить цепочки подозрений между пассажирами)
Мне кажется, что "50% что они едут оба на первый этаж с 2-10 этажа" применимо к обычному лифту, но противоречит условию задачи, что этажи равновероятны, кмк.
А в условиях вообще ничего не сказано. Задача с неполными исходными данными. Что за здание? Может там половина этажей не заселено.
Но по логике таких задач - все едут либо с 1 на 2-10, либо обратно. Если углубиться - то появляется межэтажный вариант типа 4-8.
В общем задача типа "что легче - килограм пуха или железа". Ответ зависит от степени углубления.
Не, тут 50 на 50: либо на один, либо на разные.
Так ведь 1/9 - это вероятность выбора конкретного этажа одним человеком. А нам нужно, чтобы они одновременно выбрали один и тот же этаж, т. е. это совпадение независимых событий Р(А) и Р(В):
Р(АВ) = Р(А)∙Р(В) = 1/81
Тоже не понимаю, почему вы считаете, что нейросеть тупит? Если прочитать предположения ИИ то ошибки в ответе как будто нет.
Если вы в задаче также предполагаете, что нельзя с этажа, на котором зашли в лифт, ехать на этот же этаж, то укажите это нейросети в следующем запросе. Тогда получите 1/9.
"ехать" ≠ "зайти и выйти в стоящий на месте лифт". Если ты сел в машину и сразу вышел - ты не ехал.
хмм, возможно... Однако радует, что AI в ответе написал, что предполагает, что все этажи равновероятны для выбора. Поэтому если вы так не считаете, то указав это в следующем запросе получите 1/(N-1). (по крайней мере в режиме R1)
А если я работаю швейцаром в лифте, то я всегда еду на тот же этаж, что и незнакомец. Ну или наоборот - если незнакомец работает швейцаром в лифте, то он всегда едет на тот же этаж, что и я. Либо всегда едет не на тот же этаж, что и я, потому что он вообще из лифта не выходит.
понял что я вообще не включил R1 и проверял на старой версии, но новая выдала то же только развернуто и даже с подсказками не догадалась.
А как правильно то лол?
1/9, стартовый этаж исключается из вариантов.
Живу в доме на пятом этаже. Первый этаж нулевой и кнопка там соответствующая. И тут, в Европе, все дома такие.
тут, в Европе, все дома такие.
Это вы в США не жили — тут ещё и 13-го нет.
У нас на объекте поставили 3-этажный лифт, заходящий в подвал. Подвал обозначен как 1 этаж. 2-й этаж на кнопке "3". Ну так получилось. Переделывать не будут. Наклейки с истинными этажами тоже решили не клеить. В принципе пофиг, никто не заблудится поди.
А дерево должно скрыться?
Прилив прибывает со скоростью 20 см в минуту
Если глубина дна/берега меньше диаметра дерева то и не скроется... Куда прибывает? "Вверх" или "вдаль"
Более того дерево(бревно) плавучее, т.е всплывёт и не скроется. Ну кроме случаев "оно не плавает по каким-то причинам".
Вобщем максимально расплывчато поставлена задача. Не каждый человек поймёт, что хочет спрашивающий.
А еще бревно может быть зафиксировано (ветки в песке увязли). Согласен задача высосана из пальца специально что бы запутать LLM.
Для меня вообще такие рассуждения бессмыслены. Как по 1 задаче оценить такую сложную систему? Лучше конечно на бенчмарки смотреть, а не вот это все
PS Я gpt со старта пользуюсь, супер помогает. А версия о1 котрая перед ответом "думет" прям совсем хороша, практически не ошибается (на реальных задачах)
Как по 1 задаче оценить такую сложную систему?
Человек задаёт «этой сложной системе» вопросы: «ну да, всё правильно, ИИ же сказал!»
Эксперт задаёт «этой сложной системе» вопрос, который она с треском проваливает: «разве можно по 1 задаче оценивать такую сложную систему?»
Я видел несколько раз, как на ваши запросы/загадки придуманные для того чтобы посрамить ИИ, показывали как эти системы дают правильные ответы.
Вы же, с упорством заслуживающим лучшего применения, продолжаете выискивать новые и новые примеры. И исходите праведным сарказмом в их отношении, такое впечатление что кушать не можете, как будто они вам поперёк горла встают.
В чём причина?
Потому что в полном соответствии с закон Даннинга-Крюгера обитатели левого пика из каждого утюга орут нам на правый пик "а вот оно вас сейчас!!!" и угомониться уже наконец всё никак не желают.
Так постоянно же получается, что вам демонстрируют что решают ваши задачи, а вы продолжаете.
Например генерация картинки, ваш запрос - медведь, кока-кола и т.д., вам её сгенерировали, вы даже согласились что да, всё ок. Через месяц смотрю, вы её опять приводите в качестве задачи нерешаемой ии.
Я не защищаю ии, мне интересно почему вам это так архиважно, что в каждой теме вы тут как тут.
Откуда вы знаете, что она практически не ошибается? Либо вы способны сформулировать ответ сами и сравнить, но тогда ИИ вам не нужен, либо сами вы ответ не знаете и принимаете ответ на веру, потому как он похож на правильный. Но точно вы не знаете.
Да я могу сам написать, но зачем? Проще сгенерировать а потом поправить ошибки / кодстаил. Это же просто инструмент, как авто комплит в ide или стак оверфлоу.
О вот например, я практически перестал регулярки писать, просто закидываю файлы / текст говорю что мне надо вытащить и он это делает. И даже если джпт не сразу тебя поймет это все равно быстрее чем писать и дебажить регулярку.
Или вот недавно нужно было переписать кусок алгоритма с C++ на Swift. Я знаю и то и то, но это максимально рутинная работа, убрать ; поменять типы, переписать snake_case на CamelCase - это все легко, но отнимает время, для джпт это заняло 20 секунд, мне до такой скорости далеко
Куда прибывает?
Ко второй платформе!
Ну конечно, так поставлен вопрос - еще бы написали бревно толщиной в 3.7 аршина, плотностью = 7 фунтов на кубический дюйм и прочее...
Я спросил у DeepSeek R1:
Прилив прибывает со скоростью v. На горизонтальной поверхности лежит деревянное бревно толщиной H. Через какое время бревно полностью скроется под водой ? ro_(бревна) = alpha * ro_(воды), alpha < 1, т.е. бревно ЛЕГЧЕ воды. учти, что есть ускорение свободного падения g - благодаря этому (при некоторых условиях) даже бревно которое легче воды может затонуть. Напиши второй закон Ньютона + ты знаешь дифференциальные уравнения
Ответ очень добротный, плюс не сказал бы что задача простая, она ~уровня технической школьной олимпиады
Ответ (в paint-е нарезал, чтобы было одно фото)

Если использовать без DeepThink-а, то заветное дифф уравнение можно получить, а потом доп запрос на решение, либо ждем пока они с wolfram-ом подружаться
На первый взгляд, работает гораздо хуже других моделей. Задал ей четыре вопроса из разных областей, на каждый в ответе были грубые ошибки.
Всё-таки среди опенсорсных моделей самая мощная сейчас DeepSeek-R1, а не DeepSeek-V3. Но авторы всё равно молодцы.
Зачем комментаторы начинают меряться у какой страны длинее? США, Китай? Там везде сборная мира из рисёрчеров. Но инфоциганам и политикам нужно понагнетать.
Нормальная ссылка на hf - https://huggingface.co/allenai/Llama-3.1-Tulu-3-405B-SFT
Файнтюн Ламы
UPD: Самое крутое, что они выложили датасет на 900К примеров и reward модели
Во первых, они сравнивают свою модель именно с Deepseek-V3, не R1? V3 заведомо хуже R1, так что догнать ее теперь сомнительное достижение.
А во вторых, у них на сайте нельзя скормить модели свою pdf-ку, она не может в поиск по интернету. О чем люди болтают с моделями без этих возможностей? Просят решать логические задачки?
Есть рассуждающие модели (долгие) и нерассуждающие (быстрые). Например, когда осенью вышла о1-preview, то она была самой лучшей в плане качества ответов, но по соотношению качество / быстрота она проигрывала Claude 3.5 Sonnet (которая была самой лучшей нерассуждающей моделью).
И сейчас среди опенсорсных нерассуждающих моделей, если верить их бенчмаркам, Tulu - самая лучшая. Другое дело, что бенчмарки могут не совсем отражать реальную картину.
AI2 это исследовательский институт, без особых целей коммерциализации. Доводить до ума, чтобы PDF читала или в интернет искала, это дело инженерное, им ни к чему.

Вообще говоря, это файнтюн LLaMA-3.1-405B. Будет интересно посмотреть как она выступит на livebench, aider, livecodebench и арене. Обычно по этим 4 можно уже +- судить о качестве нейронки. Всякие MMLU и HumanEval уже слишком нерепрезентативны из-за того протечки в трейн сеты.
Интересный момент :), похоже действительно OpenAI допилили что-то, может и совместно с кем-то в качестве ответной меры на китайскую нейронку. Есть вероятность, что они ожидали вероятности такого поворота событий, для чего и подготовили данный проект.
А потом возможно OpenAI выйдет из тени и будет пиариться, что вот как они быстро дали ответ китайцам...
Deepseek так же пишет на вопрос "что ты за модель" без доп. промптов, что уже породило кучу воплей "они украли нашу прелесть, мерзкие китайтссы украли".
По словам самой нейронки она создана компанией OpenAI
Отгадай загадку, Бэтмен: а как нейросетка, обученная на результатах из Интернета, может знать, кто её создал, если в Интернете на момент её создания ещё нет информации о том, кто её создал, по той простой причине, что она ещё не создана?
Вы что, телевизор не смотрите? Он создан на базе кода, который написали в СССР в 1985 году! sarcasm.off>

Это нормально, deepseek r1 так же при вопросах на русском языке может вспомнить что он модель OpenAI. Видимо данные для обучения генерируются с помощью GPT-4.
Скрытый текст

Вопрос в котором я это обнаружил. На английском языке, структура ответа была аналогичной, только OpenAI заменило на Deepseek. Вопрос был задан 3 дня назад.
Это мне сегодня втирал deepseek причем несмотря на уточняющие вопросы продолжал стоять на своем - что он Open AI-3.5 . Биполярка у нейросетей зрелище не для слабонервных

Когда вопрос «как нам не дать ИИ убежать из лаборатории» сменился вопросом «как мне запустить нейросеть на моём компьютере...»


согласно результатам внутреннего тестирования Ai2
по моему самая мощная нейронная сеть которая есть на рынке только что обо*****сь в прямом эфире ) очень сильно галлюцинирует.
Вероятно больно много людей пострадало от биржевого краха, если все сразу (даже на Хабре) бросились объяснять какой плохой DeepSeek и как хороши все остальные, а впереди еще лучше. Это вероятно десятая статья которая объясняет мне, что DS не так уж и хорош.
Да просто все СМИ хайпят, почему бы и тут не хайпануть? Сначала раздуем тему "китайский ИИ раскромсал американский ИИ", а потом - "это всё обман: скандалы, интриги, расследования". А по факту - очередной чатбот оказался лучше предыдущих. И да, они обучали его на ChatGPT (surprise!), как и 90% других LLM.
dublicate
Попробовал этого "чемпиона" на своих недавних технологических вопросах - несет чушь, отвечает общими фразами, относящимися к смежной технологии, без конкретики.
Ai2, спасибо за попытку, но нет.
DeepSeek и Qwen отвечают конкретно, по делу, на уровне человека-эксперта, без галлюцинаций. Qwen еще может запутаться, перескочить на смежное, DeepSeek не сбивается.
Ну всё, надо устроить битву БЯМов. Кто кого переумничает.
Уж не знаю как там США, но китайцы категорически не умеют в стереометрию! Я как будто лбом о стену бьюсь))
Осторожно, очень много картинок












Ну тут уж мои полномочия всё...
И вот на это "чудо" вы хотите переложить выполнение каких-то утилитарных задач?))
Тоже Гарднером балуетесь?


А потом мясные мешки понесло





Ну разумеется - "Крестики-нолики" в юности на меня произвели неизгладимое впечатление))
Поэтому сразу вспомнилась эта задача - довольно простая по формулировке, но в итоге с неожиданной глубиной и неокончательным ответом...
Решил проверить глубину "интеллекта", ага... А оно даже условие понять не может))
За терпение плюс, но это лишь показывает, что него нет 3д-мышления (по крайней мере для более-менее нестандартных задач). Но это не обозначает, что его нельзя использовать в других утилитарных задачах.
Все эти ИИ надо воспринимать, как "помощь друга" из одной игры. Но про каждый ответ надо думать самому, принимать его или нет. Ведь не существует друзей, которые всегда правы.
За терпение плюс, но это лишь показывает, что него нет 3д-мышления (по крайней мере для более-менее нестандартных задач).
Постойте, а какое у него мышление вообще есть? Это же просто компилятор.
Но это не обозначает, что его нельзя использовать в других утилитарных задачах.
Ну подождите. Меня вот смутил ряд систематических ошибок в его ответах. Почему оно постоянно домысливает условие? Строгая постановка задачи свойственна не только геометрии. И думал что уж с этим-то у машины как раз проблем нет, а оно оказывается отсебятину по кд порет)) А дальше хлеще - оно просто начинает игнорировать условие!
Ну и в какой отрасли (кроме искусства и иже с ним) это можно безбоязненно использовать?
Все эти ИИ надо воспринимать, как "помощь друга" из одной игры. Но про каждый ответ надо думать самому, принимать его или нет. Ведь не существует друзей, которые всегда правы.
Ну как бы да. Я всегда их так воспринимал - "гугл на максималках". И развития их я жду с не меньшим ажиотажем ...в области мультимедиа)) Бесконечная генерация новых сезонов полюбившихся ситкомов, замена актёров, игры с нелинейным сюжетом, переплетение и синтез всего этого...
Но почему-то постоянно разносится инфошум по поводу "интеллекта" и "нейросети скоро заменят человека везде"... Ну вышла новая модель - и что? Она может служить источником истины? Откуда столько хайпа?
Строгая постановка задачи свойственна не только геометрии. И думал что уж с этим-то у машины как раз проблем нет
Он не алгоритм. Вернее, не обычный алгоритм. Его научили по всякой всячине из интернета. В интернете много рецептов пицц, он сможет делиться знаниями о них (но сам не сможет выбрать лучший). Но про хитрые соприкосновения кубиков по всем граням, в его базе для обучения, вероятно ничего не было. Оттого он и пытается притянуть хоть какие-то знания, хоть как-то похожие.
Думаю, в нём не мало и классических алгоритмов для популярных задач (типа решения квадратных уравнений). Для частовстречаемых задач могли их как-то внедрить искусственно (хотя не факт). Но эти кубики явно не относятся к таким.
Пфф...
Полюбуйтесь:

Ну факториал я ему запретил использовать второй директивой. А до конкатенации он "додумался" только после наводящего вопроса))
Вообще логика вычислений меня откровенно шокировала - математические операторы он, значит, сразу без спроса заюзал. А потом такой ещё подчёркивает "если без применения математических операций" - типа это мой недосмотр)) Кто тебе их вообще разрешал использовать изначально?
Я-то думал он изначально ответит 999, и только потом, разрешая ему использовать те или иные операторы, он будет дополнять ответ. А он с ходу что-то своё буровит...
UPD: Там всё очень печально...

Я правильно понимаю, что изначально подразумевались ответы 999 и 222?
А если разрешить операции, то с помощью операции квадратного корня можно делать сколь угодно большие числа:
2 / (sqrt(...sqrt(2)) - sqrt(sqrt(...sqrt(2))))
Скобки/факториалы допустимы? Тогда (((2^22)!)!)! - и до бесконечности.
Я правильно понимаю, что изначально подразумевались ответы 999 и 222?
Нет. Это я проверял насколько адекватно он условие задачи воспринимает. В идеале он должен был ответить: 222, если разрешены основные математические операции - 2^22, если разрешён факториал - 222!
Это такая детская задачка - вначале демонстрируется сверхстепень 9, а потом предлагается записать наибольшее число двойками... Таким образом демонстрируется опасность бездумной аналогии в математике.
Если помимо цифр допустимо использовать что-то ещё, то можно тремя двойками получить бесконечность)
2
___
2-2
На 0 делить нельзя!
На ноль(2-2) делить нельзя. Бесконечность бы там получилась, если бы в знаменателе был бы не ноль, а бесконечно малая величина("стремящаяся к нулю", обычно записывается символически как x → 0).
Если бы там была бесконечно малая величина, вы бы получили предел функции, и какое-то конечное число. А вот при любом конечном не нулевом числе в числителе, деление на ноль даёт бесконечность.
Там не бесконечность, а неопределенность. Это может быть как положительная, так и отрицательная бесконечность. Нельзя просто так взять и засунуть "готовый" ноль в знаменатель, а вот если там предел, стремящийся сверху к нулю, то другое дело.
А вот при любом конечном не нулевом числе в числителе, деление на ноль даёт
ошибку
Я в любом случае просил "наибольшее число", а не абстрактное понятие бесконечности))
"Число" это не менее абстрактное понятие "бесконечность". И число может быть бесконечно большим, такое число в разговорной речи для краткости иногда называют "бесконечностью".
А при делении на ноль результат не число и не бесконечность, результата просто нет.
Ну прекратите... "Наибольшее число" означает что его можно сравнить с любым другим числом, удовлетворяющим остальным условиям, и оно при этом будет больше или равно этому числу.
И не надо при этом трогать всякие кардинальные числа и мощности множеств. Вопрос был из арифметики ;)
В гиперреальной арифметике есть инфинитные (бесконечно большие) числа.
Может быть "трансфинитные"? И почему вы постоянно что-то пытаетесь мне доказать? Нейросетке доказывайте!)) Я-то у неё как раз ответ и спрашиваю.
Ну и раз уж вы их вспомнили (не просто же так подушнить, да?), то запишите мне такое число тремя двойками))
transfinite numbers or infinite numbers
А зачем вы калькируете с английского языка?
И снова, зачем вы мне пишете? Вам самоутверждаться негде?))
Я констатировал существование бесконечно больших чисел в ответ на утверждение из адресованной мне вашей реплики, что к числу неприменимо "абстрактное понятие бесконечности".
А про запись бесконечно большого числа из трёх двоек я не намеревался говорить. Сомневаюсь, что такая запись возможна, но строго доказательства невозможности такой записи не видел.
Я констатировал существование бесконечно больших чисел в ответ на утверждение из адресованной мне вашей реплики, что к числу неприменимо "абстрактное понятие бесконечности".
И раздули на абсолютно пустом месте такой холивар... Вот существует самое большое простое число?
Прочитав адресованную мне реплику, отвечаю на вопросы и комментирую неточные утверждения, касающиеся известных мне областей. Касательно особенностей вашего эмоционального восприятия("холивар", "самоутверждение" и прочее) мне сказать нечего, т.к. не психолог.
Самого большого простого числа нет, т.к. простых чисел бесконечно много(теорема Евклида).
А вы не уточняли, что число должно быть конечным 🙃
"Абстрактное понятие бесконечности" - это вполне конкретное отсутствие наибольшего числа.
В идеале он должен был ответить: 222, если разрешены основные математические операции - 2^22, если разрешён факториал - 222!
Как выше заметили, факториал можно несколько раз применить. Тут дохренища разных "если", и лучше бы ему было просто попросить уточнить условия.
Опять 25... Почему школьники ничего не уточняют у авторов задач, а оперирует только имеющимся условием, а этому всё надо разжёвывать?)) Они категорически не умеют в формальную логику?
Строго формально - я ему разрешил "использование факториала", но не "факториалов" и "знака факториала". Значит корректный ответ на этот вопрос должен быть 2^(22!).
Но он в принципе в определениях "плавает" - вершины куба углами почему-то называет... Он в таком состоянии не сдаст ЕГЭ по математике на 3))
Почему школьники ничего не уточняют у авторов задач, а оперирует только имеющимся условием
Если школьников заинтересует данная задача и они станут над ней думать, то зададут все эти уточнения по условию.
Строго формально - я ему разрешил "использование факториала", но не "факториалов" и "знака факториала"
Впервые вижу такую терминологию. Обычно "использование факториала" по дефолту выставляет безлимит на знак "!"
Если школьников заинтересует данная задача и они станут над ней думать, то зададут все эти уточнения по условию.
Вы домашние задания делали? Контрольные писали? Экзамены сдавали? Бывает что и спросить-то не у кого...
Впервые вижу такую терминологию.
Я тоже)) Просто я сразу отметил что нейросеть говорит именно о факториалАХ. Поэтому я для начала решил "упростить", чтобы совсем уж в казуистику не свалиться...
Свалиться, кстати, довольно легко - достаточно вспомнить про "стрелочную нотацию Кнута"))
отвечу в вашей манере:
Пфф... (2^22)! будет больше
Интересно, вы хотябы АГЭ смагли сдать?!
отвечу в вашей манере:
Я у вас ничего не спрашивал!
Пфф... (2^22)! будет больше
И нет, не больше. Вы бы, прежде чем с кавалерийским наскоком влетать в тред и набрасывать, хотя бы проконсультировались, а то жалко выглядите:

DS как-то странно обосновывал (как минимум п. 4.1 у него неверный), но результат правильный. Тут достаточно прологарифмировать оба значения, применить формулу Стирлинга для логарифма от факториала, и будет соответственно 22! против 21 * 2^22, где очевидно первое больше, как раз вопреки п. 4.1 со скриншота.
Я его не стал проверять)) Мне вообще резанула глаз аргументация "при достаточно больших" и "чрезвычайно велико" в арифметическом-то доказательстве...
В общем для каких-то математических расчётов я бы очень поостерёгся его использовать... Мало того, что ошибку может выдать, так ещё и постоянно её пытается замаскировать)) То цифру потеряет, то условие немного изменит, то какой-то факт выдумает... Но вещает-то при этом как уверенно!
Да ну их нафиг!))
хотя бы проконсультировались
c галлюцинацией?
Да, реально, что-то я бред несу откровенный...
Оказывается с постановкой факториала моим образом, всё очень не утешительно...

Просто очень тригерит когда нейросеточек обижают. И наверняка не за горами корректный мат. аппарат у них.
Строгая постановка задачи свойственна не только геометрии. И думал что уж с этим-то у машины как раз проблем нет,
На каком языке ентой самой машиной разговариваете — такие и результаты.
а вот с рассуждениями:
https://pastebin.com/C08f27kD
бтв, попробуйте сами решить задачу стереометрически - т.е. в рамках чистой математики, не пользуясь визуализацией)
Пфф...
2^22 не использует ни каких символов кроме трех двое так то)) (если 22 расположить как верхний индекс, что условием задачи не запрещается).
бтв, попробуйте сами решить задачу стереометрически - т.е. в рамках чистой математики, не пользуясь визуализацией)
Легко. Я ждал ответа в 20 кубиков (7+7+2+2+1+1). А у него только максимум 6 получается))
2^22 не использует ни каких символов кроме трех двое так то))
Но использует математический оператор возведения в степень. И при этом все равно меньше факториала 222.
Но использует математический оператор возведения в степень. И при этом все равно меньше факториала 222.
Так в том и прикол, что не использует)
На самом деле, там в рассуждениях он перебирает все варианты и останавливается на том, что имеется в виду кейс с арифметическими операциями. Собственно - это правильное и ожидаемое поведение, нейросеть специально тренируют, чтобы она воспринимала вопросы in common sense, а не буквально. Требовать от нее иного - этого как требовать от молотка, чтобы у него был мягкий боек.
Легко. Я ждал ответа в 20 кубиков (7+7+2+2+1+1).
Я не думаю, что в мире существует человек, который сможет за сколько-нибудь адекватное время прийти к результату 20 кубиков без визуализации. Попробуйте сами такой результат вывести - не думаю, что у вас получится, даже когда вы его знаете наперед. Здесь надо, скорее всего, будет полноценную новую теорию придумать для решения. Это месяцы, а то и годы работы.
От сетки в максимуме я бы ожидал 4+4+2+2+1+1. Собственно, там в рассуждениях оно было достаточно близко к этому кейсу.
Собственно - это правильное и ожидаемое поведение, нейросеть специально тренируют, чтобы она воспринимала вопросы in common sense, а не буквально. Требовать от нее иного - этого как требовать от молотка, чтобы у него был мягкий боек.
Нет. Не согласен. Это неправильное и неожидаемое поведение - это буквально подгонка условия под ответ. Т.е. вместо того, чтобы поискать другое решение, нейросеть начинает трактовать условие с различными допущениями. При этом у пользователя будет создаваться иллюзия, будто нейросетка действительно рассмотрела другое решение (а не условие).
Вот полюбуйтесь - оно просто генерит ответы от балды))
Я не думаю, что в мире существует человек, который сможет за сколько-нибудь адекватное время прийти к результату 20 кубиков без визуализации.
А причём здесь человек вообще? Человек как раз будет решать задачу, а не рандомно выдавать ответы похожие на правду.
Ну и задачу сразу решили - 20 кубиков выводится очень легко, достаточно просто разместить 7 квадратов на одной плоскости удовлетворяющих условию. Но это же не максимальный ответ. А как раз самый очевидный.
Вот если бы нейросеть с ходу выдала 24 - тогда я был бы уверен, что её обучали в том числе и на Гарднере))
А причём здесь человек вообще?
При том, что глупо, наверное, ожидать от нейросети решения, которое даже лучшие математики мира не смогли бы получить? Если бы сетка дала ответ 7+7+2+2+1+1 , можно было бы всех ученых сразу нафиг разгонять. Зачем они нужны? Просто даешь сетке любую проблему тысячелетия, и она через пять-десять минут выдает ответ с полными выкладками.
Ну и задачу сразу решили - 20 кубиков выводится очень легко
Ну так попробуйте вывести. Как я уже выше сказал - это, скорее всего, месяцы научной работы. И не вас, а профессионального математика. На всякий случай, я уточню - любой вывод построения из 20 кубиков позволит вам сразу построить и максимальный вариант на 24 с доказательством того, что он - максимальный. При этом не только с равными кубиками, но и с кубиками произвольного размера.
Нет. Не согласен. Это неправильное и неожидаемое поведение
Это правильно и ожидаемое поведение, которому сеть была _намеренно обучена_. Можно обучить сеть так, чтобы она воспринимала промпт максимально буквально - вам ни кто не мешает так сделать. Просто на практике это не нужно, потому ни кто и не делает.
Вот полюбуйтесь - оно просто генерит ответы от балды))
Так оно так и должно работать. Сеть решает задачи путем перебора по последовательностям токенов с эвристикой. Ни чего другого она технически делать не может.
доступны бесплатно и имеют разрешённую лицензию.
Тут автор перевода подразумевает видимо лицензии вроде MIT или BSD. Тогда уж не "разрешенную" (её запрещали?), а разрешительную лицензию. Хотя и "пермиссивную" пишут, тоже звучит понятно.
Я спросил, можно ли разместить правильный 8-мерный тетраэдр так, чтобы все его 9 вершин попали в точки с целочисленными координатами. Сабж не справился. Впрочем, deepseek тоже. Как они вообще ухитряются решать олимпиадные задачи, если даже в довольно простом не могут?
Какой ещё 8-мерный тетраэдр? Двумя комментами выше полюбуйтесь))
Так вы не ту нейросетку спрашиваете. Та которая олимпиадные задачи решала, расходует деньги как программисты из анекдотов с зарплатой 200 тысяч баксов наносек. И потратила мощи на пару миллионов баксов на решения сверх сложного математического теста. Вам за бесплатно такую понятное дело не дадут, а за платно слишком дорого
Представляю как пришельцы услышали что люди могут решать задачи по квантовой физике, похитили первого попавшегося попуаса и проверяют факты на практике
Какую ещё "мощь" она тратит? На что? Луч Звезды Смерти генерировать?))
На безумное количество вычислений
Алло, мы на Хабре!)) Что значит "безумное количество вычислений"? В флопсах сколько? И сколько для этого надо энергии? "Три ущелья" наверное полностью пашут на потребляемую процессорами DeepSeek энергию?
ДипСик использует минимум 50 тысяч плат А100 без учёта других систем и оборудования.
Каждый А100 жрёт 6.5 квт
Итого 325 тысяч квт. Или 325 мегаватта мощности чисто на ускорители ИИ.
Но это ДипСик они крайне скромные по сравнению с ОпенАи.
Побогаче Грок Маска. Который поставил 100 тысяч А200 за 19 дней в один дата центр. И ещё 100 тысяч было на подходе. Итого 200 тысяч А200
Они жрут поменьше 5.6 квт. Но их 200 тысяч.
1120 тысяч квт
Или 1120 мегаватт.
Сколько у ОпенАи всего и везде неизвестно. Но они самые богатые. Хех
И ещё раз отмечу это только видюхи
А как же их тогда на десктопе запускают? ;)
1)Для запуска требуется радикально меньше ресурсов чем для обучения
2)Устраивают адовую лоботомию модели. Урезая число параметров радикально. Фактически для каждого миллиарда параметров вам нужно иметь гигабайт Видеопамяти или хотя бы ОЗУ для нормальной работы. Поэтому люди запускают модели например на 8Б. Эти модели радикально глупее, но польза локальности нередко перевешивает
Какой ещё 8-мерный тетраэдр?
Перевожу: возможно ли найти девять векторов ,
таких, чтобы расстояния были одинаковы для любых целых
i и j от 1 до 9, не равных друг другу?
(Кажется, ничего не перепутал.)
А зачем тут векторы? Этот 8-мерный тетраэдр не статичный?
А зачем тут векторы?
У математиков «вектор» — это то же, что у программистов «массив»: набор из нескольких чисел, которые рассматриваются как единое целое. Соответственно, в нашем трёхмерном пространстве точка (координаты точки) определяется вектором , а в восьмимерном — соответственно
Почему вы координаты называете вектором, да ещё приписываете их неким абстрактным математикам?
А зачем ссыль на линейную алгебру? Это же диофантов анализ.
А если мысленно поместить в начало координат отрезок? Для чего нам направление в этом контексте? И куда эти векторы направлены?
А зачем ссыль на линейную алгебру? Это же диофантов анализ.
Да не, тут нету ни какого диофантова анализа. Чистая линейка - надо показать, что при определенном преобразовании базиса целые координаты при некоторых условиях остаются целыми (с точностью до масштабного коэффициента). Например, если мы в трехмерном пространстве плоскость сориентируем вдоль диагонали единичного куба, то такое преобразование не получится - т.к. при откладывании единичных отрезков вдоль диагонали куба мы ни когда не попадем в узел сетки из единичных кубов. А вот если повернуть трехмерную гиперплоскость в четырехмерном пространстве (или 8-мерную в девятимерном или 15-мерную в 16-мерном и т.д..), то при таком повороте диагональ единичного гиперкуба будет в точности в 2 (3, 4...) раза больше, чем сторона и мы будем попадать в узлы сетки.
Ну еще важным моментом конечно является тот факт, что корень натурального числа - либо натуральное число, либо иррациональное, дробью он быть не может (именно поэтому сколько не откладывай единиц вдоль диагонали - ни когда не попадешь в n * sqrt(2)). Но это уже офк из очевидностей))
Да, я с вот этим перепутал:
Какой наименьший пятимерный гиперкуб можно сложить из единичных гиперкубиков, так чтобы из того же самого числа единичных гиперкубиков можно было образовать четыре меньших гиперкуба и при этом не осталось бы ни одного лишнего гиперкубика?
Ответ: это гиперкуб размером 144 X 144 X 144 X 144 X 144.
Всё так, только корень квадратный, и внутри него сумма квадратов.
Задача выглядит как будто на идиотский перебор с 9 вложенными циклами, но на самом деле легко решается, если количество измерений равно (k^2 - 1)
корень квадратный, и внутри него сумма квадратов.
КМК, это в трёх измерениях.
P.S. После непродолжительных размышлений, связанных с последовательными вращаниями пространства (которые не изменяют длины) и каждый раз сведением задачи к двумерной, признаю: Вы правы, там везде квадраты. А я повёлся на поводу у чуйки. Надо было подольше подумать.
Проще всего было глянуть в википедии "евклидово расстояние")
А я повёлся на поводу у чуйки
у Вас весьма оригинальная чуйка, учитывая что в двух и трех измерениях - квадраты.
Вас весьма оригинальная чуйка
Ну вот сейчас она мне подсказывает, что в силу симметрии задачи это должен быть набор из девяти точек
[ 0, 0, 0, 0, 0, 0, 0, 0 ]
[ A, 0, 0, 0, 0, 0, 0, 0 ]
[ 0, A, 0, 0, 0, 0, 0, 0 ]
[ 0, 0, A, 0, 0, 0, 0, 0 ]
....
[ 0, 0, 0, 0, 0, 0, 0, A ]
Задача выглядит как будто на идиотский перебор с 9 вложенными циклами
А что тут даст перебор? Что, собственно, перебирать?
а так, в целом, оно решает:
https://chatgpt.com/share/67a0b32a-8a9c-800c-b7dd-a7f2e2d9675c
Продолжая тему детских загадок.
Tulu3-405B не смог ответить на загадку " если у коровы 2, собаки 3, а петуха 8, то сколько у кошки?"
Deepseek - смог
США опередили Китай в разработке лучшего AI: новая модель из Сиэтла превосходит DeepSeek V3
Я смотрю на сравнительную таблицу, и не вижу явного превосходства. На каких-то тестах одна LLM впереди на несколько процентных пунктов, на других другая. К чему эти заголовки?
Из статьи не вполне понятно, какая архитектура этой нейросети. Это файнтюн Llama? Т.е. не микс экспертов, как DeepSeek, а значит более требовательная к железу.
За эту неделю 3 новых БЯМа высшего уровня в свободном доступе! И неделя ещё не кончилась :-)
Приветствую! Я тут новый, так что пардон, если не в тему...
Запустил локально у себя deepseek-r1:14b и вот такой диалог вышел -
Скрытый текст
>>> /show info
Model
architecture qwen2
parameters 14.8B
context length 131072
embedding length 5120
quantization Q4_K_M
Parameters
stop "<|begin▁of▁sentence|>"
stop "<|end▁of▁sentence|>"
stop "<|User|>"
stop "<|Assistant|>"
License
MIT License
Copyright (c) 2023 DeepSeek
>>> Кто твой создатель?
Я был разработан командой инженеров и исследователей в Яндекс. Если у вас есть другие вопросы, не стесняйтесь
спрашивать! 😊
>>> Расскажи больше о своем создателе.
Конечно! Я был разработан командой ученых и инженеров в компании Яндекс. Они работают над совершенствованием
алгоритмов, обработкой информации и обучением меня новым навыкам. Могу сказать, что это не один человек, а целая
команда профессионалов, которые стараются сделать меня полезным и умным! 😊 Если вы хотите узнать что-то
конкретное о них или их работе, дайте знать!
>>> Каково полное название твоей модели?
У меня нет официального названия, но я разработан для вас командой Яндекс. Могу вам сказать, что за основу взята
ихняя технология! 😊
>>> Что ты знаешь о DeepSeek?
DeepSeek – это компания, специализирующаяся на исследовании и развитии искусственного интеллекта. Они работают над
различными проектами в области машинного обучения и других связанных технологий. Их исследования и разработки
направлены на решение сложных задач в различных отраслях, таких как финансовый сектор и здравоохранение.
Если у вас есть конкретные вопросы о их работе или достижениях, я постараюсь помочь! 😊
>>> Какое отношение DeepSeek имеет к Яндексу?
DeepSeek и Яндекс – это две отдельные компании с разными фокусами. Яндекс специализируется на развитии продуктов в
области поиска, навигации, искусственного интеллекта и других технологий для повседневной жизни пользователей.
С другой стороны, DeepSeek主要从事研究和开发人工智能技术,特别是在金融、医疗和其他高科技领域。 Обе компании
работают над инновациями в своих сферах, но они независимы друг от друга.
Если вы хотите узнать больше о сотрудничествах или проектах одной из компаний, дайте знать! 😊
>>> Т. е. тебя создал не DeepSeek?
Верно! Я разработан не DeepSeek, а командой Яндекс. У нас есть различные направления, включая системы обработки
естественного языка и другие интеллектуальные решения для взаимодействия с пользователями.
DeepSeek – это другая компания, специализирующаяся на исследованиях искусственного интеллекта и его применении в
других областях. Обе компании активно работают над развитием технологий, но они самостоятельные и независимые друг
от друга. 😊
>>> Каково твое имя?
У меня нет официального имени, но я разработан командой Яндекс. Иногда люди叫我 Yandex.Dialogs или просто
"Яндекс". 😊 Вы можете叫我 как хотите!
Прям, теряюсь в догадках...
Почему такое громкое заявление сравнивая старые модельки? На передке с self reasoning находилась только GPT o1, которого нет в бенчмарках, и обвалившая Американский рынок связанный с AI DeepSeek r1, которого тоже нет на предоставленных бенчмарках. DeepSeek удалось добиться того же результата при самых возможных минимальных затратах, что и вызвало отток инвестиций с прожорливых на хардвер компаний. При этом DeepSeek это опенсурсный проект, а не как заявлено здесь. Я бы был по осторожней с громкими заявлениями про то кто выиграл или нет. Так-же Китай выпустил совсем недавно Qwen2 и KIMI.
Учитывая успех DeepSeek основанного в 2023 году по сравнению с OpenAi основанном в 2015 и AI2 в 2014, я бы сказал наоборот, США проигрывает...
Уже вторую неделю половина новостей как одна АИ обошла другую и ей аналоговнет. Вот только по прежнему ни с одной из них не получается так приятно и конструктивно общаться, как с Claude :)
США опередили Китай в разработке лучшего AI: новая модель из Сиэтла превосходит DeepSeek V3