Pull to refresh
158
157.5
Александр Рябиков@rsashka

Системный архитектор

Send message

Лучше сделать выбор места поиска (искать только в своих сохраненных статьях, искать в своих сохраненных статьях и сохраненных статьях других пользователей (от 10 сохранений) или искать во всех материалах сайта).

Это покрывает функции закладок (более легкий поиск в сохраненных публикациях), но самое главное, служит фильтром и ранжированием качества публикации исключая из поиска весь новостной и научпопный шлак корпблогов.

Но подобные "шедевры" можно просто скрыть и не обращать на них никакого внимания.

Имитация Интеллекта тут не причем. Черный список нужен именно для пользователей, кто этим злоупотребляет, в том числе и токсичностью комментариев.

Ну Reddit гадючник еще тот, поэтому как там не нужно :-)

Лично мне хватило бы просто не видеть подобные комментарии, типа "комментарий скрыт из-за нахождения пользователя в вашем черном списке". Но хорошо, если будет возможность показывать отдельные сообщения пользователей из ЧС, как в описанном вами случае (когда есть интересные комментарии других пользователей).

Проблема не в самих ИИ комментариях, а в пользователях, которые считают допустимым это делать. Если пользователь начинает лить ИИ-слоп в одном месте, то мне бы не хотелось с ним общаться при обсуждении ни одной другой статьи. А бывают пользователи, которые и без LLM могут такого на клавиатуре набрать, что начинаешь думать, как только что прочитанное "развидеь".

Другими словами, статьи и комментарии это разные, хоть и в чем-то пересекающиеся проблемы.

Отсутствие режима коммерческой тайны != нарушения режима конфиденциальности работодателем

Вы опять публикуете кликбейтную статью, название которой расходится с фактическим описанием ситуации в её тексте.

если этот режим обладателем не обеспечен?

Но судя по решению Суда, режим коммерческой тайны как раз и был обеспечен заявителем.

И даже без рандома с нулевым сидом совсем не факт что они будут отвечать на вопросы одинаково ...

Факт. А в вашей статье по ссылке человек не понимает как работает LLM и путает температуру и seed, хотя это совершено разные вещи

Просто в Китае за коррупцию расстреливают, а в России - нет

Я с вами полностью согласен насчет эмерджентных свойств системы.

Так же как и предполагаю, что LLM в текущем виде могут быть обязательной частью или опциональным фрагментом искусственного интеллекта (когда он действительно появится).

Причем я пишу "когда", а не "если", так как уверен, что рано или поздно человек найдет ключик к моделированию интеллекта, однако LLM как мешок слов с детерминированным алгоритмом вычислений не может быть "интеллектом" как раз из-за своей детерминированности, фиксированной структуры сети и предсказуемых обратных связей.

Пожалуйста, не генерируйте комментарии Имитацией Интеллекта.

Если вы не в состоянии высказаться собственными словами, то никакая LLM вам а этом не поможет, так как она способна только продолжать текст, генерируемый на основе обучающих данных. Но так как на момент обучения LLM ваших мыслей в обучающей выборке не было, то в результате генерации им просто неоткуда взяться :-)

Но какие-то внутренние состояния у этой самой одной модели есть. Этот критерий точно не является дифференцирующим.

Тем не менее, на текущий момент этого достаточно, чтобы разделить "детерминированный алгоритм" и "потенциально может быть разумна" :-)

и кстати все равно ошибаетесь, не понимая как работает модель. просто проверьте. запустите 2 temporary диалога в чатгпт и попросите рассказать о себе одинаковым промптом. вы получите два разных текста в обоих случаях. почему? внутренние параметры - температура, системный промпт, рлхф, модель - все одинаковое. почему разный текст?

Судя по всему вы не понимаете работу LLM, ни принципов тестирования и бездумно верите в маркетинговый буллшит.

Чтобы провести подобный эксперимент вы обязаны контролировать все тестовое окружение.

Запустите сеть локально (LM Studio или один из вариантов ollama) и сделайте все тоже самое и получите один и тот же текст (или картинку в случае генерации графики)

вы очевидно про ллм только читали где-то и вскользь, да?

Причем тут это? Разве детерминизм работы LLM зависит от того, крутится у меня локальная нейросеть или нет?

если бы было так как вы говорите, то абсолютно все большие облачные модели, обученные на одной и той же мировой библиотеке выдавали бы одинаковый ответ на один и тот же промпт.

Нет, это не так. Процесс обучения не детерминирован и влияет на результирующие веса сети.

Но если бы одну и туже модель (её веса), использовали несколько облачных провайдеров, то при одинаковых настройках (системный промпт, температура, seed и пр.) на одни и те же пользовательские данные будут выдавать всегда один и тот же результат.

Но внутренние состояния - это такой же элемент контекста, как и предыдущие входящие данные.

Это таким образом реализована работа LLM с сохранением состояния, но это никак не "внутренние состояния", так как они не изменяют внутренние веса нейросети.

Имитировать можно что угодно, но ИИ (Имитация Интеллекта) от этого не станет ИИ (Искусственным Интеллектом)

Вы уверены, что не путаете детерминизм работы алгоритма с теорией Детерминизма?

Когда я писал про детерминизм работы LLM, я имел ввиду, что любые данные на входе нейросети всегда будут давать один и тот же результат. И это поведение LLM не зависит от размерности многофакторного результата.

Другими словами, результат работы LLM всегда определяется входными данными, т.е. всегда зависит только от внешних обстоятельств и не зависит от случайности, какого бы типа она не была.

Тогда как в любом определении разума вы увидите, что там всегда присутствуют внутренние состояния (убеждения, цели, предыдущий опыт и пр.).

Именно так в библиотеке и реализуется.

Разименование ссылки и захват блокировки, это одна операция, причем захват возможен только в автоматическую переменную, которая удаляется при выходе из текущей области видимости (и освобождается захваченная блокировка).

Поэтому сценарий, когда блокировка разнесена по разным местам кода невозможен (только во вложенных блоках кода).

Это старая статья с начальными идеями безопасной работы с памятью для NewLang. В настоящий момент часть этих идей я портировал на С++ в виде библиотеки memsafe, и вот в рамках её вопрос блокировки решается за счет объединения оператора разименования ссылки и блокировки в одном операторе *.

Оператор блокировки сразу нескольких объектов, а именно в этом случае может возникать дидлок, в С++ напрямую отсутствует, но контроль правильной последовательности захвата объектов синхронизации может быть реализован в виде функции (объекты синхронизации передаются как аргументы) или в виде объекта - статического массива с объектами синхронизации, для которого оператор захвата блокировки и разименовая - одна операция.

И при том, и при другом способе реализации, контроль последовательности захвата объектов можно делать статически во время компиляции (правда до реализации еще руки не дошли).

Тут идея немного в другом.

Не в буквальной реализации, а в попытке реализовать безопасную вычисляемую последовательность блокирования объектов синхронизации, тогда как последовательность блокировки по адресам, это частный случай реализации.

И это не означает, что последовательность блокировки будет отличается от реализованной программистом в тексте программы, но такая идея дает возможность контроля (сравнения) безопасной реализации с фактически реализованной, или например для выдачи предупреждения, когда в одном случае захватывается сперва меньший адрес, а потом больший, а в другом месте программы - наоборот, сперва больший, а потом меньший.

Information

Rating
35-th
Location
Россия
Date of birth
Registered
Activity

Specialization

Инженер встраиваемых систем, Архитектор программного обеспечения
Ведущий
C++
ООП
Linux
Программирование микроконтроллеров
Встраиваемая система
C
Qt
Разработка программного обеспечения