Search
Write a publication
Pull to refresh

Comments 8

Буквально позавчера напоролся - спросил у Аськи - что сказано по поводу ХХХ в нормативных документах, как это должно быть по требованиям.

Гордо выдала список нормативов и выдержки с номерами статей. Тексты правильные - "СНИП такой то, Статья хх.уу - должно быть так и так". ГОСТы, ФЗ, СП... Семь нормативов выдала.

Полез проверять - волосы дыбом. Под одними номерами нормативов идут другие, близкой тематики но не про то. В других такой статьи вообще нет (откуда взяла фомулировки то?). Самое поганое третье - она берет абзац похожей тематики и дописывает под нужное. Что то типа "требование распространяется на груши, яблоки и сливы (это я условно про фрукты)", хотя в оригинале были только яблоки и груши. А "сливы", кстати, в реале не подпадают под требование, как я выяснил, перелопатив вручную НПД.

В общем, эта глюколовка не любит говорить "я не знаю". Обязательно нужно выдать инфу, любую, иначе не солидно, наверное. Слишком вольное обращение с инфой.

Авторам нужно прописать что то вроде "действующие нормативы, законы и прочее - не трогай /Роскомнадзор/ , сверяй с оригиналом".

Вспомнился старый фильм, цитата - "Говорят, что когда бездействует добро, зло побеждает. Правда в два раза короче — зло побеждает".

Вот тут тоже в два раза короче - нет никакого "во благо". Во первых чат бот это не интелект и эмоций у него никаких нет. Есть здоровенный датасет, нехитрая вычислительная процедура и огромные вычислительные мощности, которые формируют программную систему с таким свойством - "если на вход подать текст на выходе будет текст, с некоторой вероятностью правдоподобно сочетающийся с входом" и всё. Странно что нет какойто отсечки по "коэффициенту вероятности", тогда можно было бы выдавать это самое "я не знаю".

Вот-вот. Не доверять и всегда проверять всю информацию, что выдаёт ИИ самостоятельно. Особенно если речь идёт о сложных вопросах, а не "когда родился Пушкин".

Правда, тогда у человека возникает вопрос - "а нахрена мне ИИ, если его всё равно надо проверят?" И ответ на такой вопрос - "не нужен тебе ИИ под данные задачи".

ИИ не выдаёт готовый продукт, он выдаёт полуфабрикат. И целесообразность использования ИИ выводится из затрат времени, которые тратятся на доработку его результатов.

тогда у человека возникает вопрос - "а нахрена мне ИИ, если его всё равно надо проверят?" И ответ на такой вопрос - "не нужен тебе ИИ под данные задачи".

"Так ты слона ИИ не продашь".

Ну так я не продавец иив. Я человек, который пытается убедить начальство, что задача "поднять локальный ИИ с доступом к БД 1С и выгнать продажников" у них не прокатит.

Я это пытался объяснить супруге - было сложно.
Потом показал как чатгпт мне генерит рецепт жареных свиных крылышек - и супруга поняла.

Ллм умеют использовать внешние инструменты но почему то ни в одной нет встроенного калькулятора. Причем нету даже в модных moe у которых куча мелких ллм заточенных под разное внутри, почему даже среди них нет хотя бы простого калькулятора?

Врать для нейросетей это нормально, для живых, например люди с промытыми мозгами сами начинают воспроизводить искаженную реальность, и чем умнее человек тем правдоподобнее у него получается объяснить себе и окружающим почему черное это на самом деле белое.

ИИ пользуюсь довольно часто и бывают случаи, когда ИИ из-за своей уверенности просто зацикливается и предлагает уже опробованные решения

При этом и в самом деле: она ни за что не скажет, что чего-то не знает, что, в общем-то, доказывает необходимость самому понимать: что ты делаешь и как это работает

UPD: Хотя, может, есть способ как-то изменить запрос, чтобы сгладить углы в чрезмерной уверенности ответа

Sign up to leave a comment.

Articles