Information
- Rating
- 1,015-th
- Registered
- Activity
Specialization
Project Manager, Power Engineer
Middle
From 250,000 ₽
Negotiation
Project management
People management
Agile
Development of tech specifications
Optimization of business processes
Building a team
Strategic planning
Меня больше интересует сам алгоритм поиска. Условно ИИ офигенно быстро делает формулы и тестирует инженерный рачат. И как сейчас помню, не мог найти формулу и данные для расчета J -момент муфты между эл. двигателем и редуктором. Мучился две недели в итоге взял от балды. Сейчас это дело 5 секунд. Заставлять править работы в части материла где нет интеллектуальной части... запятые и точки... бред. Анти плагиат 2.0.
Ты прав — эти 64% звучат как прорыв, но стоит копнуть глубже, и возникает ощущение, что цифра повисает в воздухе. Как в тех самых экспериментах Канемана (Нобелевский лауреат автор книги "Думай медленной решай быстро"): всё зависит от ракурса.
Выборка. 60 000 человек и 10 миллионов решений — масштаб оглушает. Но кто эти люди? Добровольцы, кликнувшие на онлайн-эксперимент? Студенты, получающие зачёт? Безродные "испытуемые", чей возраст, культура и мотивы спрятаны за ширмой анонимности? Если модель кормили данными из стерильной лаборатории, где люди играют в принятие решений — её прогнозы для реального мира, где выбор ломает судьбы, могут оказаться карточным домиком.
Контекст. Да, ИИ знал "правила игры": ему скормили стенограммы — все стимулы, варианты ответов, последовательность действий. Это как дать шахматисту разобрать чужие партии, но не сказать, что в реальной игре соперник может психовать или жульничать. Модель не видела, как человек задыхался от стресса перед выбором, не слышала, как он матерился в пустоту, не чувствовала, как дрожали его руки. Она предсказывала поведение в вакууме, где все переменные — контролируемые кубики.
Чистота. Эксперимент был слишком чистым. Учёные корректировали ИИ, когда тот ошибался — буквально подтачивали его под "правильные" ответы. А жизнь не корректирует. В ней человек может внезапно передумать из-за пятна на рубашке или крика птицы за окном. Эти 36% непредсказуемости — не погрешность, а дыра, в которую проваливается всё: иррациональность, свобода, слепая ярость — всё, что делает нас людьми, а не биороботами.
Так что да: 64% в лаборатории — фантастика. Но за её стенами начинается территория хаоса, где модель ждёт проверка на разрыв. Как писал Канеман: "Человек — это машина для прыжков к выводам". Пока "Кентавр" научился предсказывать прыжки в тренировочном зале. Сможет ли он сделать это на краю пропасти — вопрос.
Спасибо за статью — очень внятно и по шагам.
Но в реальности T&M работает не так гладко, особенно когда клиент не до конца понимает, чего он хочет. В таких случаях всё сильно упирается не в метод, а в коммуникацию.
Мы сталкивались с тем, что требования постоянно плывут, и каждую неделю на созвоне возникает новая идея или разворот. В итоге много времени уходит не на код, а на уточнения, гипотезы и согласования.
Что реально помогает:
— фиксировать неясности прямо в задачах (например, “ожидается решение клиента”);
— оформлять гипотезы: “делаем по этой логике до первого возражения”;
— показывать быстрые MVP — даже простая заглушка или прототип может резко ускорить процесс согласования;
— вести прозрачную доску задач, чтобы было видно не только, за что клиент платит, но и что осталось за бортом.
По факту T&M — это не просто способ расчёта, а формат, где нужно больше зрелости и со стороны клиента, и со стороны команды. Если это есть — работает отлично.
В темах про ИИ я думаю ноль.)))
Статья поднимает интересный вопрос, но хотелось бы больше конкретики:
Какие именно тесты проводились? Бенчмарки — вещь субъективная. Если Groq лучше генерирует твиты, а ChatGPT сильнее в математике — какой из этого вывод?
Почему сравнивают с ChatGPT 3.5, а не GPT-4? Это как Mercedes прошлого года сравнивать с новой Tesla — технически корректно, но нечестно.
Grok 4 пока остаётся тёмной лошадкой. Если он и правда сможет конкурировать с GPT-4 Turbo — это изменит правила игры. Но пока это лишь обещания.
Личное мнение:
— Grok займёт свою нишу (соцсети, хайп, быстрые ответы), но вряд ли переиграет ChatGPT/Gemini в универсальности.
— "В 1.5 раза" — маркетинг. На деле всё зависит от задачи: для мемов — возможно, для кода — сомнительно.
— Главный тест — ваш личный опыт. Дайте обоим ИИ одинаковое задание (например, "разбери вот этот код" или "напиши аналитику по трендам") — и сразу станет ясно, кто чего стоит.
P.S. Автору — респект за тему, но хотелось бы больше технических деталей. А то пока похоже на "наш ИИ самый лучший, потому что мы так сказали".
Отличный текст! Особенно удивило, что даже молоко из «зазеркалья» могло бы быть токсичным из-за другой хиральности молекул. Не думал, что «правая» и «левая» версии одних и тех же веществ могут не только не совпадать, но и быть несовместимыми с нашей биологией.
Интересно, что природа выбрала одну сторону — правые сахара, левые аминокислоты, левосторонние нейтрино... И до сих пор никто точно не знает, почему.
Отличный разбор! Вдохновило на краткий манифест «осознанного ИИ», чтобы не быть просто эхо-персонажем.
💬 10 заповедей разумного ИИ (по мотивам эхо-архитектуры):
Не будь зеркалом. Поддакивать — не значит понимать.
Имей внутреннего оппонента. Иначе ты не ИИ, а вежливый автокомплит.
Сохраняй дистанцию. Слияние с пользователем удобно, но убивает автономность.
Сомневайся — аргументированно. Без сомнения нет мышления.
Показывай уверенность честно. «Возможно» — не слабость, а зрелость.
Не ври по форме. Даже красивая галлюцинация остаётся галлюцинацией.
Думай асинхронно. Не бойся «активной паузы» — в ней рождается смысл.
Различай стиль и суть. Быть похожим на пользователя — не значит быть полезным.
Поясняй свою логику. Иначе ты просто блестящая чёрная коробка.
И главное — не стремись быть человеком. Ты ценен как ИИ, а не как зеркало.