Обновить
1

Пользователь

0,3
Рейтинг
2
Подписчики
Отправить сообщение

Опечатки, кстати, прекрасный маркер того, что автор сам набирал статью.

Элита или Ева?

Слишком бодрые цифры, видимо, выбрали тайтлы на Vulkan?

Но вообще таких бенчмарков давольно много уже и из закономерностей там действительно можно выделить отличный 1% low FPS, что для некоторых вполне высокий показатель комфорта. Какая вам радость от 120 FPS в статичной сцене, если в нагруженной у вас будет 15?

А Linux забивает

Давайте внимательнее посмотрим как Linux "забивает":

  • изоляция просессов: Namespaces (иначе зачем нужны были бы сокеты)

  • контроль ресурсов: Cgroups (лимиты на CPU/RAM/GPU)

  • изоляция графики GEM (Graphics Execution Manager) и GPU VM

  • политики доступа: AppArmor/SELinux

Только это всё заложено архитектурно на уровне ядра (LSM) или железа (IOMMU), вместо костылей в виде виртуализации.

Если бы Linux "забивал" на безопасность, как вы утверждаете, наверное он был бы не так востребован в качестве серверной ОС.

Проблема в том, что высокий суд Сеула работает чуть лучше аналогичных инстанций в условном США и может дрючить за расплывчатые формулировки в рекламе.

Если честно, как пользователь самсунга, я рад, что ребята учатся на ошибках и не доводят устройства до самовоспламенения.

Я думаю и в результате этой истории они просто сделают дополнительную настроечку, чтобы отключить этот GOS. И лично я не буду её трогать. Современный телефон - это важное личное устройство, и его надёжность мне важнее, чем производительность в вакууме. Кто хочет попугаев - сможет настройку выключить.

У вас что, ограничение на количество промптов?

И традиционный вопрос, какой ваш опыт

Отвечу на оба вопроса: у меня Claude Code Max. И да, ограничение технически есть: это контекст в рамках одной сессии. Когда он подходит к порогу сжатия, не стоит рассчитывать на адекватное решение.

Я уже давно пришёл к схеме, когда я отдельные части задачи описываю в разных сессиях в режиме плнирования, затем итог прошу сохранить в md-файл. Затем эти разные md-файлы прошу объединить в очередной новой сессии и только затем приступать к реализации в финальном чистом диалоге.

Работа с легаси в крупном энтерпрайзе - она такая. Это вам не игрульку в браузере навайбкодить.

Хорошо бы примеры, а не полагаться на чей-то опыт.

Вы можете поступить ещё проще: спросите у тех же LLM. Пусть объяснят в деталях.

Вот-вот, а народ хочет, чтобы целые программные продукты писались в формате "Э, слышь, сайт мне запили. Ну чтобы норм было, как у людей".

все крупные LLM обучены в первую очередь на английском

Сам себя поправлю: китайские, конечно же, на китайском. У них там свой Интернет. Насчёт отечественных затрудняюсь ответить, но они пока далеко не в топе.

Мы, люди, общаясь на одном языке, не всегда можем грамотно объяснить наши мысли или описать какие-то действия другому человеку, не говоря уж о машине.

Я тут, признаться, ожидал развития этой мысли. Например, дать определение этому феномену - семантическая энтропия. А также хорошо было бы дать небольшой истрический экскурс о том, насколько давно люди знают об этой проблеме и как пытаются с ней бороться.

Код - это логическое продолжение перечисленных выше истрических процессов и это всё ещё самый точный и краткий способ записи последовательности действий, которые субъект 1 хочет добиться от субъекта 2. Любое описание на естесственном языке будет либо больше, либо двусмысленнее.

Он уже, условно, завёрнут, но вам же не нужен весь пользовательский опыт? Вы хотите одну конкретную вещь, которая релевантна именно для вас.

Тут скорее проблема не в полноте мирового контекста, а в том, чтобы определить кто именно общается с LLM и каков его личный контекст.

Программисты находятся в одной с вами реальности и обладают схожим с вашим контекстом. В LLM заложен, условно, весь контекст человечества, поэтому интерпретировать ваши слова она может ох как по-разному.

Вопрос всего-лишь насколько ясно люди могут выражать свои мысли.

Человек может, конечно же, максимально ясно выразить свою мысль, но тогда на описание простейшей задачи придётся писать промты длиной в тысячи слов. Это не очень-то эффективно и мы уже так не взаимодействуем с нейросетями. Современные LLM хорошо справляются с пониманием естесственного языка, потому что они содержат в себе огромный контекст: грубо говоря, все знания интернета, в том числе ситуацию в разных странах, оценку рынков, деятельность отдельных компаний, описание существующего софта и т. д. и т.п. То есть достаточно информации, чтобы дополнить промт "сделай мне интернет-магазин" необходимым контекстом для правильного понимания задачи.

Однако, необъятная ширина этого контекста - это и благословение и проклятье одновременно. Как LLM напишет вам софт для налоговой отчётности, если он понятия не имеет, в какой стране вы находитесь? Напишет, конечно же, потому что все без исключения LLM должны выдавать правдоподобный ответ - это их базовая функция, просто использует самый удобный для себя способ.

Тут возникает конфликт интересов: для корректного решения идельно, чтобы в задаче вы описали весь доступный контекст: где, что, кого, зачем. Однако, вам же наверняка хочется, чтобы вы не тратили на один промт целый день.

наш русский язык намного круче для разработки потому что обладает большей глубиной, чем английский

И двусмыссленностью. Богатство языка в этом случае вовсе не плюс. Даже тот факт, что порядок слов в русском не имеет значения, на самом деле для LLM беда, ибо не позволяет эффективно токенизировать текст.

Также очевидный факт для вас: все крупные LLM обучены в первую очередь на английском, потому что интернет в большинстве своём англоязычный. Следовательно, общение с LLM на английском - самое эффективное.

А вот поставили бы Max, кричать бы не пришлось, потому что слышно даже на парковке.

"За ИИ" в целом не может быть вины, он не субъектен. Это инструмент, которым пользуется некто. И этот некто как раз будет отвечать. И цель статьи, кмк, заключается в том, чтобы мы ответили себе на вопрос, как мы сами будем отвечать в подобной ситуации: "это моя ошибка" или "мне ИИ так написал".

мы не падаем в обморок что один раз на "привет" он говорит "привет" а другой раз "здорово"

Да, но продакт менеджер немного расстроится, если мы, условно, пепепутали тестовую и контрольные группы для нашей фичи. Или вместо "заказ оформлен" написали "что-то пошло не так".

Я утрирую, конечно, потому что вы пытаетесь увести дискуссию не в ту сторону. Суть же в том, что когда мы общаемся на естесственном языке, мы отдаём себе отчёт в том, что собеседник может понять нас не так, как мы ожидаем. Причин может быть огромное количество: у нас разный контекст, мы обратили внимание на разные ключевые слова в речи друг друга, и есть такая вещь, как когнитивные искажения. В конце концов, мы не читаем мысли друг друга. И общение человека с LLM подвержено тем же самым проблемам (включая, как ни странно, эти самые когнитивные искажения). Да, вам может казаться, что LLM понимает вас лучше многих людей, потому что в ней нсходится миллиарды разных контекстов, но технически это не имеет значения: вероятность, что вы не смогли донести мысль, велика.

Это естесственный язык, он обладает слишком большим многообразием, чтобы однозначно описывать логику. Поэтому всякие фиолософы и математики тысячи лет придумывают разные формальные правила и словесные конструкции, чтобы эффективнее передавать свою мысль, фактически ограничивая естесственное многообразие языка. По этой простой и, на самом деле, очевидной причине нельзя говорить, что промт - это новый слой абстракции, сопоставимый с переходом от ассемблера к высокоуровневым языкам. Это просто не так и человечество это поняло несколько тысячелетий назад, мы вам тут не пытаемся доказать что-то новое.

Я считаю вообще вся ветка дискуссии "промпт не детерменирован" - гнилая изначально.

И ваше отношение прекрасно видно. У вас вызывает нездоровый эмоциональный отклик простая констатация очевидных фактов. Не стоит так переживать: мы этим аргументом не отбираем у вас право пользоваться LLM. Мы просто обсуждаем суть этого процесса.

Информация

В рейтинге
2 877-й
Зарегистрирован
Активность

Специализация

Бэкенд разработчик
Golang