Pull to refresh
9
Anton Golovkov@udattsk

Applied Science isn't dead. It moved to the garage

1,2
Rating
4
Subscribers
Send message

Как будто человеку не бывает пофиг, и не факапили мы никогда :))
Здесь вопрос к процессам в Антропике, а не к тому что бот накосячил. Как он вообще без аппрува изменил скрипт ci/cd? Разгвоздяи Антропики и всё тут, на месте бота мог быть и джун)

Клод хорошо пишет, но да слопообороты, "это не, это то" прорываются. Ну и воды налито моё почтение 😅

Чтож ты, куртка, сдал назад 😅

И да, ждем когда же Claude запустит сервис на который подпишутся за деньги хотя бы 100 человек

Я бы привел такую аналогию:
- Разработчик - пешком
- Фреймворк - лошадь
- "ИИ" - снегоход.
У человека и лошади есть мозг, у снегохода нет, хотя по скорости он уделает обоих.

Про "продукты" за месяц - это самообман. Тонны нейрослопа - не продукт...

"Как много слов, зачем так много треска, крупы не сосчитать! Ну и невестка!" (с) Али Баба и 40 разбойников.
У меня только один вопрос - они там все такие? Сборище кривых, самонакачанных личностей с синдромом Бога...

Донни, жги!

И чем это один провод лучше? Объективно - решение от бедности.

"Про тайные знания Теслы" и все прочее без комментариев вообще 😅

В статье речь была про два массива в первом массив структур на три инт поля и каждую итерацию 2/3 данных не нужны, но грузятся и занимают кэш линию. Во втором примере чтение идёт по линейному массиву интов без забивания кеша ненужными данными (поля y и z)

Не говорите мне что делать и я не скажу вам куда идти. Специально для этого коммента зарегились? )

Мешки с мясом - это самообученные нейросети на фундаменте биохимического шума.

Не шума, а доступной для индивида культуры. Личность растёт, развивается и учится в социуме.

LLM современности уже могут уделывать докторов из мяса на многих медицинских задачах.

А ничего что эти LLM учили разметчики из африки и индии? Откуда ваши датасеты? ))

Это все хорошо, только по сути это попытка натянуть сову на глобус. "Работает вполне хорошо" по каким критериям?
1. Энергоэффективность? НЕТ
2. Детерменизм? НЕТ
3. Реальное обучение, а не подстройка контекста для голема с фикс весами? НЕТ

Что действительно "вполне хорошо работает" - это эксплуатация когнитивных искажений людей с коммерческой пользой для вендоров (и то не для всех).

Трансформеры — good enough для генерации и анализа, но есть класс задач, где "хорошо" ≠ "достаточно":
- Робот должен остановиться до препятствия
- Медицина: решение нужно доказать, а не «надеяться»
- Промышленность: «иногда сработало» = простой линии

Там нужна не перплексия, а детерминизм.

Лучше поздно, чем никогда 😅

Статья явный продукт накачки GPT сетки как и комментарии "автора"

Спасибо за отзыв! Чтобы было проще, вся документация по разделам лежит здесь:

- HUB: https://rulerom.com/ru/
- Машина: https://decima.rulerom.com/ru/
- Философия: https://philo.rulerom.com/ru/
- Пекарня: https://bakery.rulerom.com/ru/

Спасибо, что дочитали. Если есть вопросы по математике, архитектуре или бенчмаркам - пожалуйста, спрашивайте

Комбинаторный взрыв не решается никакими суперкомпьютерами. Принципиально. Учите базу.

Вам говорят что они в базе НЕ ПОНИМАЮТ нифига, по своей ПРИРОДЕ. А вы "общаются" 🤦

Information

Rating
1,938-th
Location
Томск, Томская обл., Россия
Date of birth
Registered
Activity

Specialization

Десктоп разработчик, Фулстек разработчик
Ведущий
C++
Linux
SQL
ООП
Git
Python
PHP
REST
MySQL
Bash