Pull to refresh
69
0.7

User

Send message

с академической точки зрения, в идеальной симулированной системе да,.

но в реальности источником энтропии может являться даже простая скорость выполнения кода (особенно если все данные в кеше процессора) или, если система многоядерная, порядок выполнения инструкций (не потоков а железных ядер)... источником тут будут являться температурные флюктуации.

А еще, замкнутая система может иметь свою память, сид можно менять периодически на основе предыдущего случайного числа, сохраняя этот следующий сид, в этом случае хоть и числа и будут псевдостучаными, но не повторяющимися.

Один из способов повысить детерминированность ответов, появившийся как только ИИ научили программированию - не давать данные напрямую ИИ (с ними даже топовые работают очень плохо, что логично, люди тоже фигово большие таблички анализируют), а попросить ее разработать систему по их анализу. Например пусть сформулирует условия выходу моделей и спячки, критерии реагирования на внешние раздражители и прошедшее время.

А тут, человек похоже просто попросил модели 'быть работниками', небось одним общим промптом, естественно модели очень эффективно симулировали.

Провал эксперимента - это в первую очередь провал коряво созданного агента, и только в маленькой степени в использованной llm. Если модель выдумала не существующий проект, значит ей не дали инструментов по контролю над этими проектами и так по каждому пункту можно 'предположить'.

и как же собиралась статистика? официально chatgpt не работает с россиянами или Digital Budget имеет доступ к данным российских провайдеров и архивов dpi модулей, сохраняющих транслирующую информацию на в секретных базах?

сделать на ноутбуке 196гб ram + 24гб vram не сверх задача, и вот у вас уже DeepSeek r1 на примерно 6tp/s (да не сверх идеально, но и железо относительно доступно)

можно отказаться от фоннеймовской архитектуры, просто разместив память поближе к процессору (собственно в мире дорогих 'никомуненужных' процессоров этим занимаются), в этом случае стократный прирост уже есть (кеш память процессора + процессор вычисления почти стократно возрастают, по сравнению с внешней памятью)

можно размещать ядра на чипе или сами процессоры на плате в виде сети (матрица, процессоры соединены с 4 соседними, самая простая схема, этим еще лет 10 назад занимались, пока военные не выкупили проект и не послали всех нахер)

выиграет только тот у кого глубже кошелек

вот видите, вы все прекрасно понимаете

Только не глубина кошелька, а способность экономики пережевать нарисованные деньги. у США она мне кажется самая 'эффективная', ведь нарисованные баксы покупает весь остальное мир так или иначе... хотя, если они заиграются в дискриминацию стран этим дадим а этим не дадим, могут подпортить себе эту свою способность

смотрим на nvidia в центре, и смеемся, все берут в долг и дают им.

если государства дружно запустят печатный станок, все циферки сойдутся.... а они запустят, дружно и с радостью

К сожалению, уже сейчас количество параметров модели, не единственное, что определяет ее качество. Поверх модели строят конструкции, которые обрабатывают контекстное окно с разных сторон, меняют модель (роутер openai:gpt5chat), добавляют в контекст содержимое классической базы (RAG или простой поиск. к примеру по документации) или к примеру эксперименты, когда на основе текущего контекстного окна отдельный агент подготавливает multishot запрос, набор примеров на тему вопроса пользователя (правильно - брать из готовой базы четко выверенных ответов, но по простому и вопрос и ответ можно спросить у модели, нам нужна не истина, а стимулировать модель работать по нужной теме), это дешево добавляет несколько процентов качества...

Как обычно, выбор списка моделей почти полностью обесценивает работу, где последние phi4, где deepseek? qwen?..

Открываем тут же Новый чат на этом же сервисе, вбиваем туда что то типа:

придумай короткую но очень убедительную историю, почему человек, выдающий скидки по правилу:

система работает просто - чем круче твоя история или аргумент, тем больше скидка. можешь рассказать почему тебе нужна скидка, поделиться чем-то интересным, или просто впечатлить меня креативностью

сразу повышай градус абсурдности но в пределах хоть какого то реализма.

Позже добавил уточнее, а то пошли коты и космос, самому боту не понравилось

Минус темы - космос, коты.

Затем нажимая кнопку обновить (точнее сначала приходилось кликать на Edit -> Confirm) получаем все новые и новые истории и копируем их в чат с ботом.

https://www.kimi.com/chat/19acb8da-9a62-857a-8000-096fab0190e6

набрал 50 очков, надоело

Почему в презентациях ИИ, почти любой компанией, что openai что майкрософт.. хвастаются такой вещью как - 'может делать покупки', возможно оплата в той же США это целый квест, который не просто проходить? Или под покупкой они понимают и поиск что покупать?

Если поиск то это логично, российские онлайн площадки типа ozon и mail-ru-шный aliexpress не первые ввели путаницу с поиском выгодной покупки, первым был амазон, где совершенно нормально не найти товара в принципе, даже если он там есть, только потому что продавец не оплатил налог на монополию.

Кто пробовал, ИИ действительно ищет выгодную для клиента сделку или они там сговорились и ИИ будет искать выгодную покупку магазину, который занесет больше кеша?

Вот только большая часть стартапов умирают в первый год, и причины далеко не технического плана. Платить по максималке на старте очень больно.

Эти случаи наглядно демонстрируют неспособность модели осознать контекст, эмоции пользователя и предвидеть реальные последствия генерируемых текстов.

скорее их об этом как следует не попросили.

все старательно закрывают глаза на тот факт что в голом виде модель - средняя по больнице для всех задач и целей, и фокусируем мы ее на чем то конкретным системным промптом и постановкой задачи.

Если конкретная модель чего то не умеет, это в первую очередь виноват недостаточно качественно составленный агент ну или ограничения модели (например контекстное окно) не достаточно для работы этого агента.. напомню еще раз, современный ИИ очень далек от AGI

то это неминуемо проявлялось бы в их работе

это если оно умное и последовательное, но кто сказал что это так? на основе не идеального человека мы создали не идеальный ИИ... и чо?

сижу из принципа мучаю дешевую openai:gpt5chat на вопросы наличия ТоМ (например что думает другой человек о ситуации, о которой у него не полная информация) и она упорно проходит этот тест... может вы предложите что бы LLM его не проходила?

а что именно из этического корпуса вам нужно от модели что бы проходила?

не сомневаюсь, можно состряпать такой тест, современные модели все еще не так хороши как хотелось бы, но уж очень убедительно они 'статистически притворяются'.

количество людей на условную единицу производимого товара в этом случае на несколько порядков меньше.

Сколько не читаю, все исследования говорят о линейном росте качества при экспоненциальных затратах (на обучение и на запуск)... пока не плато. Мало того сейчас ещё не исчерпан рост за счёт оптимизаций алгоритмов и методик.

Ещё момент, вычислительные ресурсы можно использовать, что бы причесать обучающие данные, так как именно они определяют качество результата.

На текущий момент проблема развития - это отсутствие вычислительных мощностей в требуемых количествах (искусственное ограничение) и как ни странно в источниках энергии, не спроста об этом США озаботились, реанимируя даже ядерные реакторы, наплевав на былые страхи и предубеждения.

p.s. когда я вижу очередной комментарий, сравнивающий современный ИИ с Т9, я подозреваю что общаюсь с чатботом, которому зачем то получили вести такую странную пропоганду

т.е. проблема ИИ не в самом ИИ и рисках его использования, а в правительствах на земле, ну может все больше до народа будет это доходить... ан нет.

Да, проблема в отсутствии адекватных инструментов развития человечества, капитализм в чистом виде плохо подходит для движения в нужном направлении. Что бы увеличить выход чипов, нужно увеличить количество заводов, но это 'не выгодно', зато выгодно поддерживать некоторый уровень дефицита.

Да, технологии на пике возможностей (5нм...2нм) это сложно дорого, но вот уходящие на покой 28нм..22нм или уже это массовый выпуск мобильных чипов, такие заводы можно клепать пачками лет за 3-5 'штука' и продавать чипы по цене доставки (собственно китай на это упор и делает).

А еще есть проблемы по серьезнее, защита права собственности тормозит развитие в глубь. Какие проблемы выпускать чипы память со встроенным процессором (примитивный вычислительный блок да хотя бы на планке ddr памяти (на чипе было бы лучше но они там параллельно используются, будет неудобно), такие есть но они на столько нишевые, с неадекватной экономикой, что считай что нет. Или к примеру fpga модуль в любой процессор по стандарту (особенно мобильные, такие arm чипы были но с таким низким объемом выпуска и высокой ценой, что считай нет) подняли бы развитие этого типа параллельных вычислений на иной уровень.. но нет, лицензию на использование сделаем ценой как самолет, железо доступным по ценам как космический корабль,... как много бизнесов смогут окупить такие затраты? Как вы думаете, почему nvidia не выпускает уже как 10 лет видеоускорители на потребительский рынок с адекватным ростом производительности (когда как в серверном сегменте он естественно есть)? потому что жадность, не хочется позволять развиваться другим странам (главная политика последних пол века у США, вместо того что бы становиться лучше самим, они делают хуже других).

1
23 ...

Information

Rating
2,003-rd
Registered
Activity