Несмотря на то, что многие компании, использующие ИИ, предлагают услуги мгновенного перевода, Duolingo Inc., владелец приложения для изучения языков, резко выросла после повышения прогноза продаж на 2025 год, отчасти благодаря тому, как компания внедрила ИИ в свою стратегию.
Duolingo уже сдала назад и снова нанимает людей, так как ИИ-сгенерированный контент оказался низкого качества и вызвал жалобы пользователей
Подозреваю, что как наберут пользовательскую базу всех переведут на тарификацию как в API, пока просто не хотят пугать людей огромными счетами в десятки тысяч долларов как из примера в статье.
Ну то есть вы предлагаете отказаться от практик code review, под предлогом того, что они мешают идее из 90-х, и даже отражают недоверие в команде.
Что касается другой трактовки CI, в целом это нормально когда идея развивается и видоизменяется со временем, не все из них хороши сразу, некоторые требуют адаптации к реальности.
PS
Я не критикую идею постоянных мелких комитетов, которая вполне может работать в маленькой однородной и сильной команде. Но в современных условиях команды часто большие и неоднородные и включают не только опытных разработчиков, знающих код, но и просто начинающих и даже интернов. Парное программирование, когда аллоцируется целый разработчик на интерна, дороговато выходит, дешевле всё-таки code review. Само code review похоже все та же идея парного программирования, адаптированная к реальности и сделанная асинхронной практикой.
Но эти ребята вообще не отличаются последовательностью - как использовать чужие данные для обучения, так они в своем праве, а как их используют для обучения других моделей - так спасите, помогите, обокрали, угроза национальной безопасности.
Но для меня эта статья выглядит примерно как если кто-то написал: "смотрите как просто реализовать самобалансирующееся дерево поиска" и дальше описал алгоритмы красно-черного дерева, без указания, что это лишь одна из реализаций известной и хорошо описанной структуры данных.
И тут тоже не помешало бы указать, что это очередная реализация семантического поиска, известная и хорошо описанная концепция, предлагаемая из коробки во многих сервисах.
PS в своем первом комментарии я опечался и указазал, что word2vec появился в 2023 году, хотя на самом деле в 2013.
Ох ты, теперь Google style поддержка и до Microsoft добралась? В таком случае хранить данные только в облаках теперь в принципе ненадёжно и нужно иметь локальные копии.
Неожиданно видеть такие статьи в 2025 году, а не в 2015. Я проверил оригинал, вдруг перевод безнадежно запоздал, но нет.
Собственно идея similarity search очень стара. К примеру, статья о Vantage-Point Tree, позволяющей эффективный поиск в n-мерном пространстве была опубликована в 1993 году. Когда Google опубликовал статью о word2vec в 2023 году тогда же люди начали эксперементировать c semantic search, используя word embeddings. Собственно сама эта статья напрямую об этом говорила
”What is the word that is similar to small in the same sense as biggest is similar to big?” Somewhat surprisingly, these questions can be answered by performing simple algebraic operations with the vector representation of words. To find a word that is similar to small in the same sense as biggest is similar to big, we can simply compute vector X = vector(”biggest”)−vector(”big”) + vector(”small”). Then, we search in the vector space for the word closest to X measured by cosine distance, and use it as the answer to the question (we discard the input question words during this search).
К 2025 году это идея уже давно стала mainstream, многие базы данных предлагают такой функционал в том или ином виде (MongoDB, Redis, SQL Server, Oracle). Это основа RAG.
И тут внезапно появляется статья, которая чуть ли не претендует на новизну этой идеи.
Раз латиница в названиях запрещена, то это должен быть Мах. В честь Эрнста Маха, я так понимаю.
У меня ChatGPT уходит от прямого ответа, пускаясь в рассуждения.
В итоге я переформулировал вопрос правильно ли сказать, что им обоим нельзя доверять
Duolingo уже сдала назад и снова нанимает людей, так как ИИ-сгенерированный контент оказался низкого качества и вызвал жалобы пользователей
https://habr.com/ru/companies/first/articles/931994/
И так говорят каждый год начиная с 2022, когда был выпущен ChatGPT 3.5.
Подозреваю, что как наберут пользовательскую базу всех переведут на тарификацию как в API, пока просто не хотят пугать людей огромными счетами в десятки тысяч долларов как из примера в статье.
Чего-то я сомневаюсь, что в древних культах ставили свечки жертвам.
По-моему, вы общаетесь с ботом - комментарии явно автосгенеренные.
На IMO распределяют медали таким образом, что примерно половина участников их получает, золото серебро и бронза распределяются в пропорции 1 к 2 к 3.
То есть золотые медали получает 1/12 участников, серебряные 1/6, и бронзовые 1/4 участников.
Ну то есть вы предлагаете отказаться от практик code review, под предлогом того, что они мешают идее из 90-х, и даже отражают недоверие в команде.
Что касается другой трактовки CI, в целом это нормально когда идея развивается и видоизменяется со временем, не все из них хороши сразу, некоторые требуют адаптации к реальности.
PS
Я не критикую идею постоянных мелких комитетов, которая вполне может работать в маленькой однородной и сильной команде. Но в современных условиях команды часто большие и неоднородные и включают не только опытных разработчиков, знающих код, но и просто начинающих и даже интернов. Парное программирование, когда аллоцируется целый разработчик на интерна, дороговато выходит, дешевле всё-таки code review. Само code review похоже все та же идея парного программирования, адаптированная к реальности и сделанная асинхронной практикой.
Странно слышать такие заявления от OpenAI.
Но эти ребята вообще не отличаются последовательностью - как использовать чужие данные для обучения, так они в своем праве, а как их используют для обучения других моделей - так спасите, помогите, обокрали, угроза национальной безопасности.
Неплохо так сэкономили 500 млн при 80 млрд расходов.
Вполне достойная машинка от Deep Computing на шасси от Framework:
https://deepcomputing.io/product/dc-roma-risc-v-ai-pc/
Да, автор скорее отдает авторство Крису.
Но для меня эта статья выглядит примерно как если кто-то написал: "смотрите как просто реализовать самобалансирующееся дерево поиска" и дальше описал алгоритмы красно-черного дерева, без указания, что это лишь одна из реализаций известной и хорошо описанной структуры данных.
И тут тоже не помешало бы указать, что это очередная реализация семантического поиска, известная и хорошо описанная концепция, предлагаемая из коробки во многих сервисах.
PS в своем первом комментарии я опечался и указазал, что word2vec появился в 2023 году, хотя на самом деле в 2013.
Ох ты, теперь Google style поддержка и до Microsoft добралась? В таком случае хранить данные только в облаках теперь в принципе ненадёжно и нужно иметь локальные копии.
Неожиданно видеть такие статьи в 2025 году, а не в 2015. Я проверил оригинал, вдруг перевод безнадежно запоздал, но нет.
Собственно идея similarity search очень стара. К примеру, статья о Vantage-Point Tree, позволяющей эффективный поиск в n-мерном пространстве была опубликована в 1993 году. Когда Google опубликовал статью о word2vec в 2023 году тогда же люди начали эксперементировать c semantic search, используя word embeddings. Собственно сама эта статья напрямую об этом говорила
К 2025 году это идея уже давно стала mainstream, многие базы данных предлагают такой функционал в том или ином виде (MongoDB, Redis, SQL Server, Oracle). Это основа RAG.
И тут внезапно появляется статья, которая чуть ли не претендует на новизну этой идеи.
Это не статья плохая - она просто отражает кашу в головах "экспертах".
Так где же обещанные 100 стартапов? Ссылка ведёт на какой-то телеграм канал, где тоже нет обещанного списка.
Ох уж эти луддиты. То ли дело не-луддиты - любуются в метаверсе на свои NFT, стоящие десятки миллионов долларов, пока ИИ агенты делают их работу.