All streams
Search
Write a publication
Pull to refresh
82
0.2
Даниил Тутубалин @DandyDan

User

Send message

Теория эфира прожила достаточно долго несмотря на то, что было множество наблюдений, которые она не могла объяснить.

В конечном итоге "два облачка над физикой" выросли в ТО и КМ.

Интересно ещё, что антично-средневековое представление об элементах чем-то напоминает современное представление о кварках.
Кварков тоже мало и у них есть странные свойства типа цвета и аромата, которые на самом деле не цвет и не аромат.

Вот бы в Civilization была ветка наук Флогистон -> Эфир -> Тёмная материя -> Тёмная энергия
Изучаешь, но ничего не получаешь, кроме опыта.

Очень просто. Если её в 5 раз больше обычной, то и Солнечной системе должно было что-то достаться. Но тогда орбиты планет выглядели бы иначе.

Давал такие задачки: напиши код на JS, используя не более одного идентификатора:
1) который считает числа Фибоначчи до 1000
2) который считает простые числа до 1000
3) то же, но вообще без идентификаторов

Без ризонинга не справляется никто.
С ризонингом DeepSeek скрипит, искрит, но иногда что-то рожает.
ChatGPT думает быстрее и выдаёт достаточно остроумные решения, например, простые числа находила через знаменитый RegEx.

Столько вопросов…

1000 вон - это меньше доллара. Какие-то смешные дивиденды.

Про Перкиса не понятно. Купил он нефть, нефть подорожала. В чем проблема?

Может быть потому что и там, и там Фурье )

Случайный шум зависит от сида. Тот же сид - то же результат, хоть на Euler a, хоть на DPM2 a, хоть на любом другом.

Результат может измениться при изменении числа шагов. Но это уже не «все те же параметры».

А, я сослепу не увидел оператор. У вас W ~ W1*W2, а мне показалось, что там минус. Вот и подумал: а какой в этом смысл, если всё равно из оригинальной вычитаем. Теперь увидел, что это ~.

Лучше всё-таки рэп бэтл между ними устроить.

Чтобы проверить, насколько хорошо модель справляется с буквами, попробуйте поиграть с ней в "города".

[пардон, не заметил, что упомянута в статье]

Attention is all you need (2017)

Статья, давшая толчок трансформерам. Все эти ChatGPT, DeepSeek и прочая, прочая обязаны своим появлениям этой статье.

arXiv:1706.03762

Наших забыли. Статья, с которой начались деревья поиска.

  • Адельсон-Вельский Г. М., Ландис Е. М. Один алгоритм организации информации // Доклады АН СССР. — 1962. — Т. 146, № 2. — С. 263—266.

Правда, из-за этого у неё проблемы с самоидентификаций )
То называет себя ChatGPT, то Claude.

Это ж получается LoRA.

Только я не понял, а матрица W тут какую роль играет?

Очень забавно наблюдать, когда ей даёшь математически-лингвистическую задачу: "50% слов в твоих ответах должны быть матерными".

Долго перебирает фразы, скрупулёзно подсчитывает количество матюков и их процент, до 50% не дотягивает - продолжает поиск дальше. Внутренний диалог может растянуться на пару экранов.

А рекурсия со стеком никак не связаны, да?

Примеры использования DFS:
- заливка (floodfill)
- как продолжение заливки - поиск компонент связности
- полный обход графа

А вот для поиска пути он крайне не эффективен

Я просил написать quine на Brainfuck.

В первых раз DeepSeek просто взял ответ с википедии.
Во второй раз (с включенным DeepThink) решил проверить решение ушёл в бесконечный цикл :)

На новой ChatGPT пока не проверял, но старая (3.5) вела себя похожим образом - генерировала бесконечный бессмысленный текст, пока её не отрубало по таймауту.

Заставил обоих играть против самих себя в шахматы. Результаты довольно похожие.
https://youtu.be/t7JO1zITCkU

Information

Rating
2,739-th
Registered
Activity