Как стать автором
Обновить
4
0.3

Пользователь

Отправить сообщение

Тут ведь дело не в количестве символов, а в количестве байтов. В ASCII и в UTF8 будет разная максимальная длина.

Это ошибка разработчика, который не изучил используемый алгоритм и не узнал о его ограничениях. Об особенности bcrypt известно уже больше 10 лет.

Надеяться на тестировщиков в таком случае не очень то надёжно.

Помнится мне, когда-то по пятницам юмористические статьи постили. Может, это такой случай? Хотя там, вроде тэги и хабы были соответствующие.

То есть:

Просто логинишься передаёшь в xmail со своим логином и паролемь от гугла.

Или всё же через OAuth?

И в целом где-то он помогает, основная проблема - его код устаревший относительно текущих возможностей языка.

Так если основная масса кода на старой версии, то откуда он про новые фишки узнает. Он же не по документации "учится".

Ну и еще он очень феерично врет

Не врёт, а сочиняет. И это его профессиональная обязанность. А то, что его сочинения иногда похожи на правду, это побочный эффект. Что бы врать, нужно знать правильный ответ.

Так они ещё и не знают, что пальцев в норме 20, а не 10.

Ну как минимум можно обучить нейросетевой переводчик с одного языка программирования на все остальные.

Зачем? Языки ведь различаются не просто синтаксисом.

И тогда человеку достаточно будет выучить всего один язык программирования, скажем Go, после чего он сможет работать с проектами, написанными на чём угодно - от C++ до Haskell.

Нет, не достаточно, по той же причине.

Потому что нейронки будут сперва транслировать код проекта на его любимый язык, а после внесения правок - транслировать обратно эти самые правки.

Посмотрел бы я как они будут транслировать проекты с Elixir на Go и обратно :)

Но речь то была изначально про естественные языки. У нас на этом этапе нерешённая проблема.

Автор цитаты предполагает, что требования должны быть сформулированы, а ИИ доказывает обратное.

Автор цитаты утверждает, что чем менее подробно будут описаны требования, тем меньше вероятность получить желаемый результат. Вот это ИИ как раз демонстрирует.

Проблема не в том что ИИ пишет код, 

а в том, что он пишет рандомный код ;)

Пока? Разве это можно как-то исправить? Проблема ведь в том, что в LLM используются естественные языки. А они слишком изменчивы и многозначны.

ИМХО, тут только надежда на всё лучшее понимание нейронками человеческого языка. Но вряд ли оно может достигнуть 100%.

Вы просто не умеете его готовить.

А в чём особенность этого умения? Что конкретно нужно уметь?

Опечатка в двух случаях из двух? Это можно было бы считать опечаткой, если бы такая запись не имела смысла. Не все цифры являются числами.

Напрашивается вывод, что рассуждения не связаны с ответом, а просто генерируются отдельно.

Так от того, точка там или запятая, смысл этих чисел меняется. И если он это не учитывает, то нет смысла вообще говорить о каком-либо понимании. И судя по ответу, он вообще не оперирует ими как числами в математическом плане. На словах сравнивает разряды, а по факту - нет.

Выходит локализации чисел у него нет? И для него 9.111 > 8,111?

А, я подумал, что это мне адресовано. У меня то поэтому и возник вопрос. Почти в каждой подобной статье авторы, почему-то, делают такой вывод.

Очень интересно, но ничего не понятно.

Принцип единственности ответственности (Single Responsibility Principle, SRP) гласит: каждый класс или модуль должен иметь только одну причину для изменения. То есть он должен выполнять только одну задачу.

Простите, но как вы из первого предложения вывели второе?

Причина для изменений - это люди. Вот тут разъяснение этого принципа от самого автора.

Всё же стало немножечко помягче

Это к чему аргумент? То, что в сказке всё возможно, это понятно. Но речь ведь не об этом.

1
23 ...

Информация

В рейтинге
2 386-й
Зарегистрирован
Активность