Search
Write a publication
Pull to refresh
1
1.2
Send message

Автор немного выдумщик. Даже пришлось напрягать llm, чтобы оно придумало такую ситуацию, как в сериях доктора Хауса.

А вы дочитали до "я работаю в..."?. Это статья НФ. ))

В первом абзаце похоже это колл центр. В топку их вместе с ИИ или без. Не важно.

У человека получается создать что-то новое очень редко. Человек тоже основывается на опыте. Примерно с такой же недетерминированностью по высокой температуре может случится что то случайное. Посмотрите сколько великих людей творят под измененным сознанием.

Это требует доказательств. И бремя доказательства лежит на вас, как на инициатора высказывания. Мой опыт говорит об обратном.

Это надо доказать. Судя по статье , не похоже.

Не выйдет: узкое место - прием и обработка соединений на одном ядре.

Да. Это совсем иное. Это нео-капитализм: когда ИИ решает с кого бы содрать побольше, и кому бы эту работу продать подешевле. Тем самым человеческий труд дешевеет.

Приведите максимально точный пример того, чего ИИ не сможет в писательстве или художестве. И мы это легко проверим. Ведь так?

В чем состоит разница с писателями людьми? Почему вы решили, что сами не компилируете свой накопленный опыт сейчас?

Веша. А что же вы молчите по теме? Где ваши обычные высказывания?! Таки поверили в ИИ, как та Сарочка с Одессы?!

Хорошая статья. Осталось добавить, что для сборки есть докер от разработчиков:

FROM caddy:<version>-builder AS builder

RUN xcaddy build \
    --with github.com/caddyserver/nginx-adapter \
    --with github.com/hairyhenderson/caddy-teapot-module@v0.0.3-0

FROM caddy:<version>

COPY --from=builder /usr/bin/caddy /usr/bin/caddy

Дело в том, что обыватели считают, что рост интеллекта моделей прямо пропорционален вычислительной мощности. Но это не так. Каждый год формируются все новые знания, и по факту на тот же уровень интеллекта, требуется меньшая мощность. К примеру, на хабре была статья о выходе Gemma 3n. Эта модель специализирована для offline. Браузеров и телефонов. Имеет средний уровень интеллекта, и помещается в памяти большинства телефонов (ей надо примерно 3+2 Гб памяти), на cpu инференсе работает со скоростью до 10 токенов сек. Модель догоняет по интелекту многие 16b модели.

То есть прогресс идёт не только вширь, но и вглубь. С учётом того, что научникам помогают llm, в теориях(Брейн штурм) и в практике (программирование). И помогают с каждым годом все лучше...

Ваше высказывание никак не противоречит тому, что сказал автор выше. Я вот имею противоположный опыт.

Прямо как параметр температуры в llm ))

Разве работает? Я думал с win10 выпилили.

Включать в розетку затонувшее устройство - преступление.

Сначала необходимо все обесточить, все чистить и сушить.

Потом давать напряжения через лабораторный БП с ограничением мощности. Постепенно разбираясь в кодах запуска

Ты не понял принципов такого класса экспериментов, когда экспериментаторы намеренно лгут. Вот допустим здесь можно посмотреть что получается https://ru.m.wikipedia.org/wiki/Эксперимент_Милгрэма

Information

Rating
2,634-th
Registered
Activity