Pull to refresh
-11
0
Send message

Дело не столько в возможностях поиска, сколько в безопасности и применении ИИ.

С одной стороны я реализовал в одном проекте поиск чисто через ИИ , ужасно медленно на 4 порядка медленнее обычного, но позволяющего делать абсолютно невозможные вещи в классическом подходе.

Например:

можно задавать вопрос на французском языке и находить информацию на башкирском языке, язык перестал играть роль.

Можно задавать абстрактные вопросы. Например найди обучалку по фронтенду, и тебе находит уроки по реакту хотя даже близко нет ни одного похожего с запросом слова. Даже если информация описана иносказательно.

С другой стороны ИИ больше используется для контроля и слежки за пользователями.

в итоге я проголосовал против ИИ в поиске.

В диагностике автомобилей - отсутстве осциллографа (специализированного варианта осциллографа - "мотортестера") (и неумения с ним правильно работать) первый признак что перед вами не диагност а читатель ошибок. Бегите оттуда.

Мясные поколения давным давно в зависимости от технологий.

Кто из нас выживет в лесу голый, без оружия, без огня , без лекарств ?

75% вообще живы только благодаря медицине.

Удаленка возможна только благодаря технологиям.

Умеет.

стрелочкой отметил запущенное приложение

48 83 EC 28 31 C9 48 8D 15 18 00 00 00 4C 8D 05
1C 00 00 00 45 31 C9 FF 15 1B 00 00 00 31 C9 FF
15 23 00 00 00

sub rsp, 0x28 // Выравниваем стек + shadow space для Win64 вызовов
xor ecx, ecx // RCX = 0 (hWnd = NULL)
lea rdx, [rip+msg] // RDX = &"hello habr"
lea r8, [rip+cap] // R8 = &"Habr"
xor r9d, r9d // R9D = 0 (uType = MB_OK)
call qword [rip+__imp_MessageBoxA] // Вызов MessageBoxA через IAT
xor ecx, ecx // Exit code = 0
call qword [rip+__imp_ExitProcess] // ExitProcess(0)

вот хекс редактор

между промптом и бинарным исполняемым файлом, все лишнее. если ллм сможет без ошибок генерить бинарники.

Один мой знакомый уже реализовал и отлаживает такую систему. по принципу "ai first" без промежуточных звеньев. ну считая ассемблера. но и его пытается исключить, сразу записывая в машинный код. Так как любой ЯП это абстракция для человека.

Очень много знакомых стали использовать его, так как ЛЛМ замечательно пишут на нем. Изза его строгости. а учитывая что это вайбкодинг, то его сложность низкоуровневости полностью нивелируется. Так что его рост только начинается.

Если не смотреть на сотрудника, то можно увидеть, что бюджет закончился, а продукт так никто и не начал делать.

а увас что все задачи решены и больше ничего делать не нужно?

задача менеджера (тимлида, техлида и тд), заполнить все рабочее время сотрудника задачами, и смотреть как ответственно сотрудник относится к выполнению задач.

вы забыли это

@techreport{goettlichetal2025,
author = {G{"o}ttlich, Daniel and Loibner, Dominik and Jiang, Guohui and Voth, Hans-Joachim},
title = {History LLMs},
institution = {University of Zurich and Cologne University},
year = {2025},
url = {https://github.com/DGoettlich/history-llms},
}

на хабре была статья , я выкладывал результаты перевода.

Все нормально работает. то что вы описали будет если тупо копировать весь текст в ллм . Правильный пайплайн и раг решают почти все проблемы с художественным переводом.

Тоесть ты одновременно работал на двух работах, и удивляешься что не прошел испытательный срок на работе с ЗП выше рынка?

Зайдите на чаты по пхп и поищите упоминания про многопоточность и асинхронность.

Да даже просто про JIT поищите.

И там практически не будет. Ибо не нужно никому. Процессы маленькие, короткоживущие, обычно нет никаких нагрузок.

А нет спроса - нет и предложения.

нет . речь про The Hailo-8 edge AI processor, featuring up to 26 tera-operations per second

внешние платы на порядки мощнее.

а стоят не существенно.

По факту у вас не LLM получилась а просто векторная база по которой вы выбираете ближайшее совпадение. Ничего плохого, сам использую похожий путь.

Идея неплоха и реализуема вполне на таком крайне низкопроизводительном оборудовании. Но почему вы не хотите добавить нейроускоритель к малинке (40-70$) и уже на нем запустить реальную llm типа зафайнтюненую вами на вашем датасете gemma-4b которая даст реальное распознавание даже незнакомых или нестандартных команд и резко уменшит ошибки.

чего демонстрация? применения векторных и графовых баз с совместно с самаризацией текста? ну так то это сейчас вообще тренд в раге. только не рунете смотрите . То что я делаю показать не могу так как это коммерческий проект.

рага строит граф со всеми участниками отношениями между ними, взаимодействия . также самаризирует весь текст и выводит главное.

вы же смогли описать вкратце многотомное дело. Почему вы думаете что ллм не может это сделать?

Агент может пройтись по всему тексту множество раз , складывая пазлы в кучу.

Вам не обязательно за один раз все помещать в контекст.

1
23 ...

Information

Rating
Does not participate
Registered
Activity