Интересно ещё, что антично-средневековое представление об элементах чем-то напоминает современное представление о кварках. Кварков тоже мало и у них есть странные свойства типа цвета и аромата, которые на самом деле не цвет и не аромат.
Давал такие задачки: напиши код на JS, используя не более одного идентификатора: 1) который считает числа Фибоначчи до 1000 2) который считает простые числа до 1000 3) то же, но вообще без идентификаторов
Без ризонинга не справляется никто. С ризонингом DeepSeek скрипит, искрит, но иногда что-то рожает. ChatGPT думает быстрее и выдаёт достаточно остроумные решения, например, простые числа находила через знаменитый RegEx.
А, я сослепу не увидел оператор. У вас W ~ W1*W2, а мне показалось, что там минус. Вот и подумал: а какой в этом смысл, если всё равно из оригинальной вычитаем. Теперь увидел, что это ~.
Очень забавно наблюдать, когда ей даёшь математически-лингвистическую задачу: "50% слов в твоих ответах должны быть матерными".
Долго перебирает фразы, скрупулёзно подсчитывает количество матюков и их процент, до 50% не дотягивает - продолжает поиск дальше. Внутренний диалог может растянуться на пару экранов.
В первых раз DeepSeek просто взял ответ с википедии. Во второй раз (с включенным DeepThink) решил проверить решение ушёл в бесконечный цикл :)
На новой ChatGPT пока не проверял, но старая (3.5) вела себя похожим образом - генерировала бесконечный бессмысленный текст, пока её не отрубало по таймауту.
Теория эфира прожила достаточно долго несмотря на то, что было множество наблюдений, которые она не могла объяснить.
В конечном итоге "два облачка над физикой" выросли в ТО и КМ.
Интересно ещё, что антично-средневековое представление об элементах чем-то напоминает современное представление о кварках.
Кварков тоже мало и у них есть странные свойства типа цвета и аромата, которые на самом деле не цвет и не аромат.
Вот бы в Civilization была ветка наук Флогистон -> Эфир -> Тёмная материя -> Тёмная энергия
Изучаешь, но ничего не получаешь, кроме опыта.
Очень просто. Если её в 5 раз больше обычной, то и Солнечной системе должно было что-то достаться. Но тогда орбиты планет выглядели бы иначе.
Давал такие задачки: напиши код на JS, используя не более одного идентификатора:
1) который считает числа Фибоначчи до 1000
2) который считает простые числа до 1000
3) то же, но вообще без идентификаторов
Без ризонинга не справляется никто.
С ризонингом DeepSeek скрипит, искрит, но иногда что-то рожает.
ChatGPT думает быстрее и выдаёт достаточно остроумные решения, например, простые числа находила через знаменитый RegEx.
Столько вопросов…
1000 вон - это меньше доллара. Какие-то смешные дивиденды.
Про Перкиса не понятно. Купил он нефть, нефть подорожала. В чем проблема?
Может быть потому что и там, и там Фурье )
Случайный шум зависит от сида. Тот же сид - то же результат, хоть на Euler a, хоть на DPM2 a, хоть на любом другом.
Результат может измениться при изменении числа шагов. Но это уже не «все те же параметры».
А, я сослепу не увидел оператор. У вас W ~ W1*W2, а мне показалось, что там минус. Вот и подумал: а какой в этом смысл, если всё равно из оригинальной вычитаем. Теперь увидел, что это ~.
Лучше всё-таки рэп бэтл между ними устроить.
Чтобы проверить, насколько хорошо модель справляется с буквами, попробуйте поиграть с ней в "города".
[пардон, не заметил, что упомянута в статье]
Attention is all you need (2017)
Статья, давшая толчок трансформерам. Все эти ChatGPT, DeepSeek и прочая, прочая обязаны своим появлениям этой статье.
arXiv:1706.03762
Наших забыли. Статья, с которой начались деревья поиска.
Адельсон-Вельский Г. М., Ландис Е. М. Один алгоритм организации информации // Доклады АН СССР. — 1962. — Т. 146, № 2. — С. 263—266.
Правда, из-за этого у неё проблемы с самоидентификаций )
То называет себя ChatGPT, то Claude.
Это ж получается LoRA.
Только я не понял, а матрица W тут какую роль играет?
Очень забавно наблюдать, когда ей даёшь математически-лингвистическую задачу: "50% слов в твоих ответах должны быть матерными".
Долго перебирает фразы, скрупулёзно подсчитывает количество матюков и их процент, до 50% не дотягивает - продолжает поиск дальше. Внутренний диалог может растянуться на пару экранов.
А рекурсия со стеком никак не связаны, да?
Примеры использования DFS:
- заливка (floodfill)
- как продолжение заливки - поиск компонент связности
- полный обход графа
А вот для поиска пути он крайне не эффективен
Я просил написать quine на Brainfuck.
В первых раз DeepSeek просто взял ответ с википедии.
Во второй раз (с включенным DeepThink) решил проверить решение ушёл в бесконечный цикл :)
На новой ChatGPT пока не проверял, но старая (3.5) вела себя похожим образом - генерировала бесконечный бессмысленный текст, пока её не отрубало по таймауту.
Заставил обоих играть против самих себя в шахматы. Результаты довольно похожие.
https://youtu.be/t7JO1zITCkU