Pull to refresh
4
0.1

ASIC RTL

Send message

С вашего позволения я пропущу следующий круг, где я снова намекаю что инструмент должен устойчиво выполнять свою дефолтную функцию при использовании дефолтных настроек, а если не выполняет то он не инструмент а поделие, а вы мне снова предлагаете забить чопик вот в эту конкретную дырочку чтобы вот эту конкретную утечку устранить. :)

В моём случае это был запрос на перевод довольно формализованного юридического документа. В "перевод" которого были добавлены как отдельные понятия так и целые разделы и близко не присутствующие в оригинале.
Впрочем, как я вижу из примера ниже, с художественным текстом ровно то же самое может произойти. По моему скромному понятию изменения вида

в исходнике герой попадает в опасную ситуацию, а в переводе герой на белом коне уезжает в закат

в принципе не могут называться переводом.

Верить в наше время нельзя никому, даже себе (с). Так что всё сводится к двум простым пунктам - проверяемости результата и алгоритмически гарантированному диапазону ошибок.
Проверяемость той же Вики вполне понятно как обеспечить - там есть требование подтверждать источниками, при отсутствии которых уровень доверия опускается в красную зону. В случае LLM источники есть далеко не всегда, а те что есть часто нафантазированы, о чём уже упомянул @Weshaнемного ниже. А для каких-то вещей LLM в принципе не может предъявить источники потому как они банально не хранятся в её весах. И тут мы плавно переходим ко второму пункту...
Его труднее однозначно сформулировать, но вот упрощённый пример с переводчиком. Если вы используете условно "тупой" переводчик, который по словарю заменяет слова языка А на слова языка Б, пусть даже и с учётом локального контекста, то в худшем случае вы получите неправильно переведённое слово или фразу. Но такой переводчик по определению не добавит в перевод то, что отсутствует в оригинале, и уж тем более не замаскирует это красивыми переходами между словами. В LLM же информация представлена не словарём а степенью взаимосвязи, причём взаимосвязь очень многослойная. Эта архитектура по определению может вызывать множество неожиданных эффектов, что мы и наблюдаем. И со стороны меня, как не слишком математически подкованного обывателя (пусть и разрабатывающего ASIC-и для этих ваших LLM в рабочее время :D), нынешняя деятельность ИИ-строителей выглядит как затыкание очередных дырок в решете подхода, который не факт что в принципе позволяет устойчиво решать задачи, на которые его пытаются натянуть. Хотя какие-то классы задач он решает достаточно хорошо чтобы впечатлить инвесторов и потребителей.

Руслан признайтесь, вы запостили эту новость исключительно из-за фамилии министра? :D

Конкретный пример для нынешнего GPT я вам привести не могу, поскольку отказался от его использования несколько месяцев назад.
А отказался после того, как в переводе некоего документа я частично получил текст, который в этом документе не присутствовал вовсе, но была эта лажа весьма органично и правдоподобно вплетена в реальный перевод. Обнаружил я это не сразу и это стоило мне определённого времени и денег. Язык, с которого осуществлялся перевод, я практически не знаю так что делать проверку перевода не отходя от кассы у меня не было возможности. А была бы возможность, зачем мне тогда GPT?

А все эти "подкручивания температуры" и прочие ритуальные действия, которые оказывается нужно обязательно выполнить чтобы получить ожидаемый (и декларируемый производителем) результат работы некоего инструмента, вызывают у меня, как бы помягче сказать, искреннее недоумение. Вы когда Cntrl+F используете для поиска слова в тексте, для вас будет нормальным если поиск будет тыкаться в случайные последовательности букв, не имеющие отношения к введённой вами строке поиска? А чтобы он таки нужную строку нашёл (или её гарантированное отсутствие), его нужно будет очень вежливо попросить или какие-то неявные настройки подкрутить, разные для каждой следующей строки поиска?

Вы можете сказать что это мол временное явление, издержки отладочного периода, и нужно просто неявно добавить во всем промты что-то вроде "говори что не знаешь, если нет информации" и вот это всё. И вообще сейчас это работает уже более лучше чем год назад. Но на мой взгляд это просто частный случай общей проблемы - что LLM построены на слегка рандомизированном поиске наиболее вероятного следующего токена а не на оценке фактов (включая смежные факты, которые могут и совсем другими словами выражаться). Этакий вероятностный калейдоскоп, если упростить. И сколько бы заплаток не налепили сверху на этот калейдоскоп чтобы принудительно отфильтровать все эти лишние пальцы рук и прочих baby peacock-ов, проблемы будет вылезать снова и снова.
А чтобы действительно починить "тут всю систему нужно менять" (с). Вот только не похоже что светочи ИИ-строения понимают, на что именно нужно менять, поскольку даже эти светочи (не говоря уже о простых смертных вроде меня) кажется что не понимают как мышление вообще работает. По крайней мере пока со стороны светочей в основном раздаётся плач, что мол во всём интернете недостаточно информации чтобы экстенсивно развить их калейдоскопы до чего то действительно похожего на интеллект.

Кажется вы меня неправильно поняли и теперь возражаете против того, что я не утверждал. Фраза "текст начинающего графомана" является цитатой из вашего же сообщения, относящейся именно к ИИ-продукту, извините что я кавычки не использовал. И, соответственно "прорываться" в моём ответе значит приблизительно то же самое что ваше "первично оценить, хрень это или не хрень" безотносительно к её происхождению.
Но, и это была основная мысль моего ответа, сколько бы раньше не графоманили живые люди, с появлением LLM объёмы "хрени" достигли или достигнут в ближайшее время таких высот, что вам придётся либо существенную часть своего внимания тратить на оценку, либо отказаться примерно от всего интернета.
Будем считать что вы достаточно целеустремлённый человек и не сдадитесь так просто, продолжите прокачивать свой навык определения и вот это все. Но из-за постоянного роста уровня информационного шума, вы будете получать всё больше отрицательных стимулов при поиске стоящей информации. И, так уж работает человеческий мозг, это неизбежно приведёт к уменьшению желания эту стоящую информацию искать. Не моментально, понемногу, но уровень вашей реальной информированности начнёт падать. Что, применительно не к вам лично, а к аудитории интернета в целом, и является самым опасным следствием того, как LLM используются сейчас.

Моё время и мои когнитивные способности я лучше потрачу на что-то другое.

Например, чтобы продраться через тексты начинающего графомана которые теперь вместо ответа в поисковых системах показываются? Или через те же тексты которые делают вид что они новости или статьи на том же Хабре?
Проблема как раз в том, что из людей высасывают их невосполнимое личное время и внимание на то чтобы распознать ИИ-продукт, пусть даже только для того чтобы его отбросить в пользу чего-то полезного. Даже если вы потратите меньше минуты на один экземпляр продукта, то сколько вашего времени уйдёт чтобы найти что-то стоящее в области ваших интересов? Раньше графоманы были ограничены естественной производительностью, а теперь только производительностью серверов, которая масштабируется значительно дешевле пользовательского внимания.

Нет, проблема в том что нынешние нейросети не умеют говорить "я не знаю" и что они в большинстве своём натренированы создавать не смысл а красивую цепочку слов. А то, что в результате получается продукт, который по большей степени пригоден рекламные клики и просмотры собирать, это уже следствие.
Хотя, если продавцы рекламы обильно проплачивают ИИ-продукт в его нынешнем виде это вероятнее всего сказывается на направлении развития нейросетей.

IMHO, стоит упоминание и ссылку на эту предыдущую статью где-то в первом абзаце и добавить.

Из того что я вижу, ИИ отлично пишет правдоподобно выглядящее враньё и красиво выглядящие пустышки. Или комбинацию из этих двух.
А жертвы потом тратят невосполнимые человеко-часы чтобы понять что это враньё или пустышка. Или не понять и дальше пытаться наесться сахарной ватой ИИ-продукта. Это даже если оставить в стороне явный вред от решений принятых на основе искажённой информации и прочие побочные эффекты.

С точки зрения продавцов рекламы всё кончено замечательно - пользователи кликают по хайповым заголовкам открывая сайты с рекламой или залипают над картинками baby peacock-ов и "глубокомысленными" постами в соцсетях с рекламой... в общем активно потребляют рекламу и приносят денег. А вот с точки зрения этих самых пользователей выглядит не очень.

Сравнение текстовых файлов в Double Commander - это боль, как по результату сравнения так и по производительности. Total Commander через wine сравнивает большие файлы в разы быстрее и при этом не жрёт прорву памяти.

И при подсчёте контрольных сумм для групп файлов (или вложенных папок) Double Commander почему-то перебирает файлы не в алфавитном порядке, а каким-то другим образом, возможно по дате обновления. В результате невозможно напрямую сравнить списки контрольных сумм составленные в разное время если некоторые файлы были изменены.

Я на родине этого Dainichi сейчас проживаю. Качество воды в Токио пожалуй близко к Питеру, по крайней мере если сравнивать с теми местами где я жил.
Налёта я не замечал. Но у меня в квартире нет массивной отдельно стоящей мебели, потому как при землетрясении чем-то крупным может и придавить, поэтому для хранения в основном встроенные шкафы используются. А та мебель которая есть, вся светлых оттенков. Однако есть некоторое количество чёрной техники, типа колонок и мониторов, которая довольно близко к увлажнителю стоит, и на ней тоже ничего такого не заметно.

Кстати, обратите внимание что гибридность у HD-1500F относительная. В том смысле, что горячего пара тут нет, а просто до некоторой степени подогревается воздух, которым обдувается испаритель. Этого вполне хватает чтобы быстро достигать целевой влажности, но какое-то дополнительное обеззараживание сомнительно что присутствует.

Все эти заявленные производителем квадратные метры покрытия видимо измеряются в наглухо задраенных помещениях. В моём случае, более чем трёхкратного запаса от заявленных для Sharp KI-JX75 45 м2 (или 0.75 литра испарения в час) не всегда хватало чтобы обеспечить целевые 50% влажности в одной комнате с разумным проветриванием. Разумное проветривание в моём случае - это вентиляция настроенная на целевую точку не выше 800 ppm CO2 в комнате на 12 м2 где либо я один бодрствую, либо два человека спят, так что не сказать что прямо сильный сквозняк.
Не говоря уже про шум этого пепелаца, который делает его мало-совместимым с ночным использованием.

Отмучавшись несколько сезонов купил суровый Dainichi HD-1500F (на 1.5 литра испарения в час) и наконец то наступила тишина и требуемый уровень влажности. Он ещё и простой в управлении - сказали ночной режим, значит вентилятор не крутится громче определённого уровня. А не эти "умные" алгоритмы, которые могут тебе среди ночи внезапно врубить полную скорость потому что влажность на один процент ниже целевой точки опустилась.

Но конечно нужна регулярная профилактика и, раз в сезон замена расходников-испарителей. Жаль нет возможности осмос поставить чтобы полностью исключить кальциевый налёт.

Все эти ISO 25010 чаще всего не колышат менеджмент вообще никак. По той простой причине, что этот менеджмент в большинстве случаев наёмный и его KPI завязаны на видимые результаты типа количества фич, пользователей, и иже с ним.
И даже если этот менеджмент понимает что конструкция из костылей в конце концов осыпется, то он рассчитывает что под завалами окажутся как раз разработчики, а уж он то гордо спрыгнет с золотым парашютом. Ну или если он ещё не забрался по карьерной лестнице туда, где парашюты выдают, то просто выставит разработчиков как единственных виновников провала проекта, а сам благополучно уйдёт в другой проект или на повышение.

Короче я это сделал, и после пары бесед мне по итогу сменили начальника и подняли зарплату и все снова довольны. Zwischenzeugnis, кстати, так и не получил.

Ох уж эти немецкие бюрократы - на всё пойдут, лишь бы справку не выдать. :D

Но с чего бы такому произийти внутри одной микросхемы где все элементы выполнены на одном кристалле по одной и той же технологии ?

Для начала, одна "технология" это некая библиотека примитивов, включая множество вариантов FF-ов, разной нагрузочной способности например. У которых параметры могут быть весьма разными.
Во вторых, никто не обещал, что "внутри" LUT-а в режиме сдвигового регистра есть какие-то буквальные FF-ы. Это может быть и мелкая память, где указатели записи и чтения ходят по кругу с некоторой задержкой, что как раз и объясняет невозможность моментального сброса такого "регистра". Впрочем, учитывая десятки лет которые тот же Xilinx вылизывает свои CLB, так может быть и что-то промежуточное, собранное на уровне транзисторов а не типовых примитивов. Но про это нам конечно же не расскажут ибо секрет фирмы. Хотя может быть в патентах что-то можно найти.
Квартус и вовсе в явном виде блочную память рисует, как я вижу в статье, хоть и без указателей. Указатели, впрочем, там тоже есть, как минимум для работы этой же памяти в режиме FIFO, но видимо они скрыты на схеме. Это вообще типовое поведение для Альтеры - не показывать пользователю лишних подробностей, чтобы он лишний раз не волновался.

Гаджет Rabbit R1 теперь умеет переделывать свой пользовательский по подсказке искусственному интеллекту.

Было бы чудесно немножечко вычитывать перед публикацией.

Ошибка в тексте на КДПВ как-то не настраивает на серьёзное восприятие статьи.

Ну откуда эта мода на выделение приблизительно случайных слов в тексте болдом, да ещё и с использованием такого вырвиглазного цвета? Это помогает в понимании материала ровно никак, а в большинстве случаев раздражает и/или мешает.
Люди, которые умеют читать больше одного абзаца без потери концентрации, замечательно поймут и без этой цветомузыки. И даже в структурирование смогут, без подсвечивания подзаголовков. А те, кто не в состоянии, те под кат и так не пойдут.

Information

Rating
3,343-rd
Location
Токио, Япония
Registered
Activity