
Комментарии 23
Верно ли LLM подсчитывает кбжу? Не раз замечал, что может ошибаться в расчетах (это касаемо GPT)
Зависит от. Если несколько цифр посчитать на калькуляторе и калькулятор подключен то может. Если большая таблица то только топовые модели с инструментами справляются.
У русских сервисов перепродающих гпт обычно даже простого калькулятор нет, они считать не умеют.
Нет, математика это слабая сторона llm, но он вполне может написать программу-калькулятор с простеньким GUI, а дальше правильность подсчета зависит от используемой формулы, которую если чего, можно подправить в программе ручками.
Делают проще: прикручивают возможность работать по API начиная со встроенных математических выражений питона и заканчивая wolframalpha, и тогда все четко считает и не ошибается. Но для кбжу это из пушки по воробьям.
А как верифицировать ответ LLM в первых двух случаях?
достоверные источники (например, PubMed)
Это шутка такая?
Почему вы думаете, что PubMed плохой источник? Да, там тоже есть заказные обследования, но промт учитывает это. Если у вас есть примеры источников лучше, то напишите пожалуйста. Буду рад включить их в свой промт. Спасибо!
По поводу составления расписаний мне кажется что иногда лучше самому делать а не через ИИ
А я собрал ПК с помощью LLM: https://habr.com/ru/articles/925018/
Ну кстати программу тренировок действительно собирает отлично. Учитывает группы мышц, можно попросить иметь ввиду наличие или отсутствие какого либо тренажёра или снаряда. Для совсем новичков не пойдёт, а вот кому нужно шокировать мышцы альтернативами - самое то.
Если поручать LLM задания, которые не можешь проверить, рано или поздно случится неприятность. А если можешь - то проще и надежнее сделать самому
Не скажи. Скажем, взять производную, или написать несложную функцию я могу за пару минут, а он - за пару секунд.
Но если я напишу формулу, я в ней уверен. А как можно быть уверенным в том что пишет LLM? Я видел столько написанных ими глупостей, когда из текстов на заданную тему выдергиваются фразы и соединяются в том порядке, который в данный момент нужен, не обращая внимания на причинно-следственные связи, достоверность и т.д.
А как можно быть уверенным в том что пишет LLM?
Так он же весь ход вывода пишет. Проверить - быстрее, чем писать самому.
Не сравнивайте текст с формулами. Формулы можно валидировать хоть автоматически. Хоть юнит-тестами, если на то пошло.
Да, если понимать задачу и знать, как она решается. Мои дипломники, к сожалению, не вникают в то, что пишет LLM и пытаются представить это как решение задачи, хотя там куча ошибок
Потому я и писал: ключевое требование - самому быть способным сделать то, что просишь у ИИ.
А идиотов, которые верят ИИ на слово, я в последнее время стал в интернете регулярно встречать...
Тогда это не интеллект, а мощный калькулятор
Ну, в общем, так и есть. Электроник. С ним можно поговорить о математике. И, должен сказать, он довольно догадливый в простых вопросах.
А цепляться к термину ИИ, я считаю неправильным. ИИ - это давно очень широкий термин, охватывающий практически всё, что не сводится к классическим алгоритмам.
Да, но автор статьи доверяет ему без возможности проверки и я пытался его предупредить
Не Вы первый. Тут, наверно, каждый комментатор про это написал.
Кстати говоря, для "изучения сложных в понимании предметов" я его тоже использовал. Спросишь, например, у него "Какие методы интерполяции лучше применить в случае Х? Как доказать сходимость аппроксимирующего ряда в случае Y?" А он что-то отвечает, со ссылками на именованные алгоритмы. С названиями алгоритмов - идёшь в гугл и находишь, чёрт возьми, учебник, о котором никогда прежде не слышал. Профит!
Сэкономил час-другой гугления.
Топ 4 способа применения LLM в повседневной жизни