Почему при этом считается что дать ИИ сгененировать код, а потом его вычитывать - проще чем изначально писать - не знаю. Обычно живые программисты говорят наоборот: тут проще все выкинуть и заново написать, чем разбираться...
LLM - идеальный инструмент для гугл-разработчиков, скопипастил предложенный код, не разбираясь в нем, и побежал дальше. Плюс избавляет от необходимости анализировать и оценивать несколько предлагаемых традиционным поисковым движком вариантов, выбирая наилучший. Совсем кратко говоря - LLM для тех кому некогда думать ))
По такому принципу уже много десятилетий работают вместе в кабине самолета два пилота и автопилот. Бóльшую часть работы выполняет именно автопилот, живым пилотам рекомендуется периодически брать управление на себя. Чтобы не разучиться пилотировать самолет "на руках".
А так да, общепринятое мнение что автопилот выполняет ту же работу надежнее и безопаснее.
Только никто не называет это "искусственным интеллектом"
зачем человеку стремиться продолжать самому делать то, что машина делает намного быстрее или лучше
Например для того, чтобы когда автопилот глюкнет, знать и уметь как взять управление на себя
Вот эти две "профессии" точно большие языковые модели смогут успешно заместить. Взять 10 уже имеющихся текстов и на их основе запилить еще один новый - идеальная для LLM задача. С той лишь разницей, что GPT не 10 текстов за основу берет, а куда как больше
Другой вопрос - а стоят ли многотриллионные вложения в алгоритмы, ПО и железо того, чтобы стереть племя копирайтеров с лица земли? ))
тысячи исследователей по всему миру прямо сейчас пытаются обучать следующие версии моделей на синтетических данных, сгенерированных текущими сетями
А если текущая сеть сгенерила дичь (наподобие добавления клея в сыр) - чему обучатся следующие версии? Или нужен man-in-the-middle который эту дичь будет отсекать?
И не только у него, судя по количеству регулярно появляющихся на Bloomberg, Reuters и прочих похожих ресурсах статей "ИИ может казаться похожим на DotComBubble но это не он нет нет нет" все к тому и идет
В оригинале не "вертуха", а piledrive - борцовский прием, когда противника укладывают на ковер сначала головой, а потом всем остальным корпусом. Не читайте переводы - читайте оригинал ))
>>десятки генерик-аргументов - правда генерики в том числе для обхода возможного боксинга
Можете пожалуйста вот эту тему расшифровать немного? О каком языке программирования речь? Java?
Кажется я знаю откуда у этого проекта растут ноги ))
[Пошаговая инструкция: сборка JDK9 из исходников на Windows 10](https://habr.com/ru/articles/319078/)
Увидел - вздрогнул ... ))
Вот кстати да:
go1.22.1, Ubuntu 22.04, i5-9300HF
Может автор на ардуино каком-нибудь бенчмарки запускает? ))
Вот так из ленты:
А вот так из профиля:
Кстати это у меня заглавный блок фотографий виден только если открывать статью из профиля автора? А если по ссылке из ленты переходить - то нет
Мне одному кажется что если
то тут уже не Go нужен?
"господа гусары МОЛЧАТЬ" (c)
И даже там его функция заключается в том, чтобы максимально отдалить момент, когда для решения вопроса придется подключать живого оператора ))
LLM - идеальный инструмент для гугл-разработчиков, скопипастил предложенный код, не разбираясь в нем, и побежал дальше. Плюс избавляет от необходимости анализировать и оценивать несколько предлагаемых традиционным поисковым движком вариантов, выбирая наилучший.
Совсем кратко говоря - LLM для тех кому некогда думать ))
Собственно код получившийся можно глянуть где-нибудь? Или я ссылку в статье пропустил?
По такому принципу уже много десятилетий работают вместе в кабине самолета два пилота и автопилот. Бóльшую часть работы выполняет именно автопилот, живым пилотам рекомендуется периодически брать управление на себя. Чтобы не разучиться пилотировать самолет "на руках".
А так да, общепринятое мнение что автопилот выполняет ту же работу надежнее и безопаснее.
Только никто не называет это "искусственным интеллектом"
Например для того, чтобы когда автопилот глюкнет, знать и уметь как взять управление на себя
быстро != замечательно
Как проверить правильность и осмысленность предложенного результата если
Пока любую дичь от разных LLM распознают и добавляют в массив обучающих данных люди, которые эту LLM разрабатывают, поддерживают и обучают.
Если есть обратные примеры - пожалуйста приведите или дайте ссылки
Вот эти две "профессии" точно большие языковые модели смогут успешно заместить. Взять 10 уже имеющихся текстов и на их основе запилить еще один новый - идеальная для LLM задача. С той лишь разницей, что GPT не 10 текстов за основу берет, а куда как больше
Другой вопрос - а стоят ли многотриллионные вложения в алгоритмы, ПО и железо того, чтобы стереть племя копирайтеров с лица земли? ))
Каждому свое мерещится, это понятно ))
А если текущая сеть сгенерила дичь (наподобие добавления клея в сыр) - чему обучатся следующие версии? Или нужен man-in-the-middle который эту дичь будет отсекать?
И не только у него, судя по количеству регулярно появляющихся на Bloomberg, Reuters и прочих похожих ресурсах статей "ИИ может казаться похожим на DotComBubble но это не он нет нет нет" все к тому и идет
В оригинале не "вертуха", а piledrive - борцовский прием, когда противника укладывают на ковер сначала головой, а потом всем остальным корпусом.
Не читайте переводы - читайте оригинал ))
Можете пожалуйста привести примеры? ну то есть кто стал эффективным и в чем? Спасибо