Search
Write a publication
Pull to refresh
27
0.2

Software Developer

Send message

Иногда люди патологически не способны показать что они чего-то не знают. Поэтому выдумывают ответ.

Забавно, что многие на сайте считают это исключительно свойством LLM.

Можно массив завернуть в структуру для передачи. Суть та же самая останется.

Т.е. вместо систематического подхода будем бить палкой по конкретному исполнителю, дабы он сам как-нибудь чего-нибудь придумал. И всё равно строго накажем ценного специалиста при первой же ошибке, которая обязательно будет, ведь люди ошибаются.

Такое количество пальцев сложилось в ходе эволюции животных. Хотя в природе встречаются случаи полидактилии (наличие дополнительного пальца), пятипалая конечность оказалась наиболее функциональной и устоявшейся в процессе естественного отбора. У многих видов животных на первый взгляд меньшее количество пальцев, но чаще всего "недостающие" пальцы просто редуцированы.

у ответственного за результаты всего этого есть ФИО

А смысл? Чтобы когда что-то пойдёт не так было кого оштрафовать/посадить/расстрелять? Какая цель этого действия? Мне кажется, лучше тратить усилия на выявление слабостей системы и улучшение, нежели на поиски, кого бы наказать.

Статья оставляет двойственные ощущения после прочтения. С одной стороны, грамотное описание задач и методов стеганографии, возможных атак и противостояния им. С другой, "спрячем сообщение в младшем бите картинки" - самый нелепый метод, который можно предложить после хоть и краткого, но довольно обстоятельного введения. У метода даже ключа нет, а при знании алгоритма можно не то что обнаружить сообщение в контейнере, но и прочитать его!

Принимать управленческие решения ИИ никто не даст

В старых компаниях - возможно. А кому-то будет лень поднимать жопу с дивана, и он даст задание ИИ создать фирму и управлять ей. И возможно даже эта фирма обойдёт старую компанию, в которой никто не давал ИИ принимать управленческие решения.

указав только Раст как единственный для миграции и больше никаких

Насколько помню, там было много языков предложено, даже Питон в их числе.

эффект нивелируется теанином

Эффект? Какой именно? Точно ли нивелируется обсуждаемый в статье?

А ещё отдельную квартиру поближе к офису супругу/супруге.

Зачем? Корабль не достиг заданных параметров запуска, автоматическая независимая автономная система определила это и уничтожила корабль ради безопасности. Наличие радиомаяка ничего не поменяло бы в этой ситуации.

Есть же разница между покупкой аккумуляторов для одной цели и использованием аккумуляторов в моменты, когда они простаивают свободные от основной своей работы.

приходится ждать генерацию тысяч строк для исправления десятка

Зачем так делать? Можно же попросить сгенерировать diff, нейросетки неплохо справляются с этой задачей.

А зачем человек что-то делает неправильно, а потом проверяет и исправляет? Пускай подождёт и пишет сразу правильно.

Если вам кажется это необходимым, можно запрограммировать соответствующее поведение, но зачем?

Мозг развивается и меняет свою структуру в ответ на внутренние и внешние воздействия.

Которые по сути являются "датасетом" для биологической нейросети.

он отличается настолько что её отдельно пришлось учить говорить "я не знаю".

Просто вы никогда не встречали индийца, который ни за что не ответит "нет" или "не понял". Не думаю, что их нейросети отличаются от органической. Всё дело в датасете.

если мы ей даём текст который склонен к какому-то факту, нейросеть с большей вероятностью будет его поддерживать, и не важно про что он будет - про то что "белое - это чёрное" или "холодное - это горячее"

Так и люди так же делают!

Стадный инстинкт

эта вероятность уже выбирается самым обыкновенным псевдорандомом

Не вероятность выбирается псевдорандомом, а следующий токен выбирается псевдорандомом, основываясь на вероятностях, вычисленных нейросетью.

Это происходит, потому что большинство моделей обучаются не на предложениях, а на отдельных словах. Картинки в датасете размечены другими нейросетями, которые просто указывают, какие объекты присутствуют на картинке. Поэтому для генерирующих моделей промпт "петух, клюв, машина" ничем не отличается от "петух с машиной в клюве". Мультимодальные модели должны показывать намного лучшие результаты.

Всё это хорошо, но у вас есть предубеждение, будто бы LLM не способна сказать "не знаю" или "это не так" и вообще не имеет никаких предубеждений. В то время как эти вещи зависят от тренировки модели и инструкций. Даже ChatGPT, если ему сказать, что ответить "не знаю" нормально, начинает реже генерировать бред. Почему его сделали таким, какой он есть, это другой вопрос, и неправильно опыт общения с какими-то моделями обобщать на все возможные LLM.

Не все, и только внутри блока unsafe, который в идеале один на каждый случай реализации структуры данных или интеграции с внешним api.

Пока что этот диалог напоминает анекдот про японскую лесопилку: "Ага, если внутри unsafe подсунуть рандомное число в виде указателя, всё рухнет! Пойду дальше писать на Си с UB в каждой третьей строчке"

Information

Rating
2,990-th
Registered
Activity