Главное не забыть закончить диалог каким-нибудь положительным комментарием, в котором обязательно не искренне пожелать успехов, чтобы не дай бог кому-нибудь не показаться "плохим" в этой словесной перестрелке :)))
Результат моей работы (которая под NDA) - публично доступна для скачивания и этой экосистемой приложения пользуется большое число людей. В комментарии выше можно заметить, что я предложил "создать веб-приложение, которое бы демонстрировало работу вашей системы", потому что одно дело - код под NDA, другое - внешняя оболочка. Если внешняя оболочка простой скрипт сгенерированный на ChatGPT демонстрирующий... ничего, то и знакомиться там не с чем.
Если вы такие крутые разработчики ИИ, то предлагаю вам ознакомиться с этой очень классной статьей про RL-алгоритмы. https://habr.com/ru/articles/991622/ Очень сомневаюсь, что вы вообще поймёте о чём там идёт речь. Ну а что, вы ведь точно эксперты в RL-алгоритмах? Может по достоинству оцените данное исследование и личная самооценка по умерится?
О, ничего себе, первый собеседник вернулся :) Знаете, если вы будите так общаться с аудиторией, то в серьёз вас воспринимать она не будет. Вы прям брызжите слюной, лишь бы как-то задеть, как-то унизить оппонента, как-то выставить себя в более "положительном ключе". Очень наивно. Это поведение ребёнка, а не взрослого человека.
Я не знаю каков ваш уровень погружения в тему ML (у собеседника из предыдущего комментария он, вероятно, выше), но лично я имею неплохое представление о том, как устроены классические конвейеры машинного обучения. Конкретно в область NLP я глубоко не погружался, на данный момент я занимаюсь исследованием, в ходе которого разрабатываю систему для своевременного обнаружения противоправного поведения людей (формулировка задачи для вас - максимально абстрактная, как вы любите, разумеется по факту звучит она более приземлённо) по видеопотоку из камеры. Погружаюсь в эту область, и тут также использую трансформеры (на базе RT-DETR), и мультимодальные свойства LLM-агентов (на базе общедоступного Qween). В общем-то, я бы не сказал что я прям 0 в ML и ничего не понимаю (что, по видимому, истеричный собеседник №1 и пытался донести), однако у меня достаточно навыка системного анализа, чтобы достаточно быстро разбираться в интересных для меня темах. И сейчас мой фокус - AI&ML направление. Собственно, по теме исследования это и так понятно.
Что касательно портфолио - в контексте AI&ML направления оно маленькое. Оно в целом маленькое, потому что разработки которые под NDA нельзя публиковать в публичные репозитории (это ведь, нормальная практика, да? :))).
Данный комментарий отличается от предыдущего на столько, что можно предположить, будто пишет совершенно другой человек. Вы всей командой отвечаете на сообщения под статьями? :)
Вы потратили время на разбор публичной заглушки для бизнес-демонстрации
Ну, ваш коллега как бы не однократно писал под данной статьёй комментарии, что у него то вот есть результаты в публичном доступе, которые "доступны и можно посмотреть" (соответствующие комментарии выше), а я достаточно опытный разработчик чтобы судить о результатах по факту. Я зашёл посмотреть, ничего существенного не увидел. Даже пример сгенерировал одной из нейронок, который по стилю и тону на эту демку очень похож. Просто что-то переусложнённое, для бизнеса, для демонстрации "глубокой экспертизы" и иллюзии достижения результата.
OpenClaw, например, разрабатывают довольно сложную систему и выпускают её в открытый доступ, а с помощью неё, на секундочку, уже можно автоматизировать рабочее место так, что человек нужен будет только в точке "целеполагания работ" и контроля. Вы могли бы поступить аналогично. Хотя бы в браузере дать доступ к каким-то существующим результатам (сгенерировать веб-приложение на ChatGPT / DeepSeek / Qween, которое будет обращаться по API к вашей нейронки - довольно просто). Вы этого не сделали. Следовательно - странная история... Банально чат-бот сделать в телеграм или вебе уже бы демонстрировало серьёзный подход к делу. Ведь ничего не теряете в сущности, если предоставите общепринятый интерфейс для взаимодействия с чат-ботами. Никакие конкуренты ничего не своруют :)
вычисляется асинхронно
Надеюсь вы понимаете разницу между асинхронными и параллельными вычислениями... А то тут сразу "фоновый процесс", "вычисляется асинхронно", "даже когда к нему никто не обращается"... некоторая смесь получается, которую интерпретировать можно по разному.
Агент помнит то, что вызвало “эмоциональный” отклик, а не то, что чаще встречается в логах.
Ну вот теперь более менее понятно. Вот сама суть. Классический Reinforcement Learning (RL), его вы, собственно, и описываете.
То, что для вас это звучит как «переусложнённая бессвязная концепция» — абсолютно нормально
Это не всегда нормально. Я уже встречал подобные идеи, которые патентовали разные патентные тролли без какого-то реального результата. Грубо говоря, пришла им в голову мысль, сгенерировали с помощью LLM патент и отправили на регистрацию. Просто патентный троллинг, не более. Склоняюсь к тому, что текущий проект что-то в этом духе тоже преследует, т.к. результатов я не увидел никаких. Могли бы и продемонстрировать хотя бы веб-приложение, а не просто кидаться архитектурой "суверенного ИИ". Пока что - всё странно (по моему субъективному мнению) :)
Продолжайте изучать публичные демки и настраивать агентов для таблиц)
Продолжайте отвечать на комментарии и писать публичные демки через ChatGPT :)
привет, на гитхаб есть в шапке демо метка “PURPOSE : Business-presentation demonstration of Metabolic AI capabilities. All internal computation is encapsulated behind the MetabolicEngine interface. Implementation details are proprietary and not exposed.” И еще чуть ниже "# LOW-LEVEL ENTROPY / DETERMINISM UTILITIES
Да, я собственно с этим скриптом уже ознакомился и охарактеризовал его уже в комментарии выше как "генератор псевдореалистичных метрик на базе SHA-256" или "красиво оформленный псевдослучайный симулятор". Ничего такого, что отражало бы какую-то конкретную идею я там не увидел. Просто симулятор... концепт, чего-то "переусложнённого", не более.
Это тоже самое, как если бы я написал Python-скрипт концепт "суверенного нейроморфного визуально подкреплённого графического движка, с рандомным разбросом дисперсии математической величины в пространстве K^2 и K^3 степени на базе реального геометрического пространства детерминированной величины в кластере B1 и B2"
Собственно, вот сгенерированный одной из нейронных сетей "прототип" для "бизнес-заказчика":
"""
Sovereign Neuromorphic Visually-Reinforced Graph Engine (SNVRGE)
v0.3 experimental draft
Concept:
- Neuromorphic nodes (spiking-like dynamics)
- Visual reinforcement loop (pseudo-feedback)
- Variance diffusion over K^2 and K^3 manifolds
- Deterministic-chaotic evolution
NOTE: This is conceptual / experimental nonsense with structure.
"""
import math
import random
import hashlib
from typing import List, Tuple, Dict
# ─────────────────────────────────────────────────────────────
# CORE MATHEMATICAL SPACE
# ─────────────────────────────────────────────────────────────
class KSpace:
def __init__(self, dim_power: int, size: int = 32):
self.dim_power = dim_power # 2 or 3
self.size = size
self.field = self._init_field()
def _init_field(self):
if self.dim_power == 2:
return [[random.random() for _ in range(self.size)] for _ in range(self.size)]
elif self.dim_power == 3:
return [[[random.random() for _ in range(self.size)]
for _ in range(self.size)]
for _ in range(self.size)]
else:
raise ValueError("Only K^2 or K^3 supported")
def sample(self, coords: Tuple[int, ...]) -> float:
if self.dim_power == 2:
x, y = coords
return self.field[x % self.size][y % self.size]
else:
x, y, z = coords
return self.field[x % self.size][y % self.size][z % self.size]
def diffuse_variance(self, intensity: float):
# pseudo diffusion
if self.dim_power == 2:
for i in range(self.size):
for j in range(self.size):
delta = (random.random() - 0.5) * intensity
self.field[i][j] += delta
else:
for i in range(self.size):
for j in range(self.size):
for k in range(self.size):
delta = (random.random() - 0.5) * intensity
self.field[i][j][k] += delta
# ─────────────────────────────────────────────────────────────
# NEUROMORPHIC NODE
# ─────────────────────────────────────────────────────────────
class NeuroNode:
def __init__(self, node_id: int):
self.node_id = node_id
self.potential = random.random()
self.threshold = 0.7 + random.random() * 0.3
self.connections: List["NeuroNode"] = []
def connect(self, other: "NeuroNode"):
self.connections.append(other)
def integrate(self, stimulus: float):
self.potential += stimulus * 0.5
def spike(self) -> float:
if self.potential >= self.threshold:
self.potential *= 0.3
return 1.0
return 0.0
# ─────────────────────────────────────────────────────────────
# VISUAL REINFORCEMENT LAYER
# ─────────────────────────────────────────────────────────────
class VisualField:
def __init__(self, resolution: int = 64):
self.resolution = resolution
self.buffer = [[0.0 for _ in range(resolution)] for _ in range(resolution)]
def project(self, value: float, x: int, y: int):
self.buffer[x % self.resolution][y % self.resolution] += value
def normalize(self):
max_val = max(max(row) for row in self.buffer) + 1e-6
for i in range(self.resolution):
for j in range(self.resolution):
self.buffer[i][j] /= max_val
def feedback(self) -> float:
# global visual reinforcement signal
total = sum(sum(row) for row in self.buffer)
return math.tanh(total / (self.resolution ** 2))
# ─────────────────────────────────────────────────────────────
# GRAPH ENGINE
# ─────────────────────────────────────────────────────────────
class SNVRGE:
def __init__(self, num_nodes: int = 64):
self.nodes = [NeuroNode(i) for i in range(num_nodes)]
self._connect_graph()
self.k2 = KSpace(2)
self.k3 = KSpace(3)
self.visual = VisualField()
self.tick_count = 0
def _connect_graph(self):
for node in self.nodes:
for _ in range(random.randint(2, 5)):
target = random.choice(self.nodes)
node.connect(target)
def _hash_entropy(self) -> float:
data = f"{self.tick_count}".encode()
h = hashlib.sha256(data).digest()
return int.from_bytes(h[:4], "big") / 2**32
def step(self):
entropy = self._hash_entropy()
# variance diffusion
self.k2.diffuse_variance(entropy * 0.05)
self.k3.diffuse_variance(entropy * 0.02)
spikes = []
for node in self.nodes:
# sample from spaces
x = int(entropy * 1000) % 32
y = int(node.potential * 1000) % 32
z = int((entropy + node.potential) * 1000) % 32
v2 = self.k2.sample((x, y))
v3 = self.k3.sample((x, y, z))
stimulus = (v2 + v3) * 0.5
node.integrate(stimulus)
s = node.spike()
if s > 0:
spikes.append((node.node_id, s))
# propagate spikes
for node_id, s in spikes:
node = self.nodes[node_id]
for conn in node.connections:
conn.integrate(s * random.random())
# visual projection
for i, (nid, s) in enumerate(spikes):
self.visual.project(s, nid, i)
self.visual.normalize()
feedback = self.visual.feedback()
# reinforcement
for node in self.nodes:
node.potential += feedback * 0.1
self.tick_count += 1
return {
"tick": self.tick_count,
"entropy": entropy,
"spikes": len(spikes),
"feedback": feedback
}
# ─────────────────────────────────────────────────────────────
# DEMO LOOP
# ─────────────────────────────────────────────────────────────
def run():
engine = SNVRGE()
for _ in range(50):
state = engine.step()
print(
f"[tick {state['tick']:03d}] "
f"entropy={state['entropy']:.4f} "
f"spikes={state['spikes']} "
f"feedback={state['feedback']:.4f}"
)
if __name__ == "__main__":
run()
Тоже что-то сложное... тоже что-то "псевдо глубокое" и точно также - ничего не демонстрирует в сущности, как и размещённый на GitHub Ваше демо:
Я знаком с таким проектом как Character.AI. Они там тоже стремятся к сохранению консистентной идентичности... За счёт настраивания LLM'ок, конечно, но просто ради интереса рекомендую взглянуть.
управлять приоритизацией памяти без RAG-костылей и проявлять асинхронную инициативу
Приоритизацией памяти без RAG-костылей? Вы имеете ввиду, что источники данных он будет выбирать как-то по другому? Самостоятельно? Так и пишите, зачем усложнять? Но ведь и современные агенты этим также занимаются... могут разные источники просто взять и обобщить в них информацию. А могут какие-то источники и убрать. И RAG-это не костыль, а интерфейс для настройки LLM-агенты под нужды бизнеса. Его ориентация на те задачи, которые в контексте их задач сейчас актуальны. И что за... "асинхронная инициатива"? Вы тут, наверное, имели ввиду управление ПК (или выполнение задач) независимо от человека? Так и с OpenClaw сейчас тоже самое доступно. Разверните агентов на своём ПК и дайте какую-нибудь задачу, они могут многое сделать независимо друг от друга (кто-то в терминале, кто-то в таблице, кто-то ещё где-нибудь).
успешно валидирована в закрытом бета-тестировании и находится на стадии патентования.
Я, конечно, желаю Вам удачи, но складывается ощущение, что результатов конкретных нет... и всё это пока на базе переусложнённой и логически бессвязной концепции, суть которой в безоговорочном стремлении создать "наш, российский, суверенный агент на базе сложнейшей концепции, которую простым смертным не понять". Я встречал подобное творчество от других людей... которые, буквально, помешались на ИИ (или что они под этим словом подразумевают). Ваше творчество мне чем-то это напоминает... Тот случай, когда хотел бы ошибаться :)
В целом, статья мне показалась интересной с точки зрения некоторых используемых идей... но вот остальное, всё очень странно. Вроде бы и вещи говорит автор умные, а вроде бы автор чрезмерно помешан на патриотизме к РФ и выражает ясную озабоченность её национальными интересами... Собственно, складывается ощущение, что вся цель данного проекта быть просто "100% российским национальным ИИ, построенном на отечественных (и ничего кроме отечественных) технологиях". Это странно выглядит.
Ознакомился также с группой в телеграмм и там ситуация точно такая же. "Отечественная наука", "сильный отечественный фундамент" и прочее в этом духе... Так то наука это не только про Россию, если что. Разные страны вносят разный вклад в общее человеческое дело, и российские учёные не единственные кто приносит пользу всему человечеству, в этом смысле. Странно делать акцент на "родину и ИИ", при этом активно используя достижения международного научного сообщества (Python, всё-таки, сделан не в РФ был, но используют его даже в Северной Корее). Это очень вредный фокус, как я считаю. Особенно в текущей внешней и внутренней политической обстановке.
Хотя, быть может это очередная попытка просто срубить бабла с государственного гранта. Если будет фактически доказанная лояльность текущему режиму и следование его интересам (народный ИИ, отечественные технологии, национализм, и прочее), то и грант получить можно.
Вообще, я нигде не увидел конкретного результата который можно было бы оценить. Так всё красиво расписано, но ничего кроме красиво оформленного псевдослучайного симулятора в 530 строчек Python кода на GitHub я не увидел. Сложная терминология, конечно, есть, но она лишь создаёт ощущение погружения в глубину, которое может и отсутствовать вовсе (к чему я и склоняюсь).
Акцент на "суверенном ИИ", очень много сложной и местами переусложнённой терминологии (которая, видимо, была использована с целью демонстрации "глубины погружения в тему") и псевдослучайный симулятор на GitHub, который демонстрирует... Непонятно что, честно говоря. Генерирует псевдореалистичные метрики на базе SHA-256 и всё... Ну и state machine тут ещё есть... может это просто очень урезанный интерфейс для привлечения внимания... но такое можно и с обычной LLM'кой галлюционирующей сделать (не в обиду авторам, просто может было бы лучше как-то раскрыть больше деталей, а не останавливаться на заготовке).
Ваша команда уже что-то реализовала практически? Просто интересно. Или это чисто теоретическая архитектура, которая сейчас патентуется и в будущем планируется её полноценная разработка? Пока что сложно судить что это за проект... Вроде и препринты есть (это предварительные версии исследований, а не законченные их версии), и код мало мальски на GitHub'е есть, но позиционирование... заставляет задуматься о проекте в несколько ином ключе.
Это называется "вайб-кодинг" или "vibe coding", не стесняйтесь изначального наименования этого процесса :)
очень существенный минус, за все нужно платить
Да, и в один прекрасный момент LLM-компаниям ничего не будет стоить поднять цены за токены ещё выше, ещё выше и ещё выше... Мы живём в капитализме, думаю так примерно и будет. Чтобы "программировать" в будущем нужно будет платить много денег)
При этом не теряется контекст работы, и ты всегда остаешься на уровне контроля и планирования.
А зачем на этом уровне оставаться? LLM отлично заменяет человека в планировании и контроле уже сейчас, достаточно развернуть сеть агентов и задать им одну общую задачу. А они там и спланируют, и код напишут, и протестируют всё... только обратную связь остаётся им давать, чтобы скорректировать результат.
Последовательно с разной скоростью каждый новый слой работ у разработчика будут забирать LLM'ки. Сначала кодинг, потом программирование, затем архитектура, системный анализ, проектирование, планирование (на всех этапах), сопровождение, и так далее... А мы всё и дальше будем облегчать себе жизнь мыслями о том, что "разработчик всегда будет нужен на этапе <подставить то, что будет заменено LLM-кой в ближайшие годы>".
Программирование, разработка и в целом IT с участием людей в роли исполнителя всё быстрее и быстрее умирает в принципе... Как и многое другое что связано с интеллектуальной деятельностью и творчеством. Тут уж точно каждый сам за себя и без принципа "не можешь победить - возглавь" тут никак.
и можно идти пить чай или кофе
Руководству не выгодно будет таких сотрудников держать, которые могут спокойно идти чай пить, да кофе (напомню - мы в капитализме живём и меняться ничего не будет) в то время как LLM'ка будет решать задачи. Зачем нужна эта прослойка в виде человека в таком случае? Достаточно нанять менеджера с "Эй Ай" навыками и всё... Дать ему глоссарий разработчика, да и пущай работает.
Это результаты почти десятилетних исследований в области изучения языков программирования и ранних прототипов, которые с помощью LLM творчески переработаны менее чем за месяц.
Не обесценивайте результаты десятилетних исследований, ведь именно благодаря им (в том числе) существование больших языковых моделей в принципе сегодня возможно. Без таких исследований "вайб-кодинг" не мог бы существовать в принципе.
И теперь пусть кто угодно ругает ИИ, а я уже согласовал с генеральным директором необходимость его использования у нас на работе.
А выбор у Ваших коллег будет - использовать LLM или нет? А то как-то... странно. Вам, значит, это всё понравилось, всё хорошо, и надо всем остальным навязать такое же отношение что ли? Как будто тут выбора то и нет... использовать LLM или нет.
а у меня появляется время, чтобы заниматься действительно важными вещами.
Какими это, например? Своими личными проектами в рабочее время? Или распитием кофе, пока LLM'ка будет всю задачу за Вас выполнять? :)
Агент пятилетней давности это GPT-3, что ли? Вы точно хотите пользоваться пятилетними ллмками в области, где каждые полгода появляются новые подходы, которые позволяют делают нейронки уделывающие по эффективности, знаниям, etc все старые?
Я о 5-ти годах говорил в контексте того, что будет скачана модель (1 раз) и больше в течении 5-ти лет её обновлять никто не будет (ведь без Интернета ведь LLM-агенты работают и нормально?).
Спокойно, я думаю. Баш вообще никак не меняется, в js подобавляли прикольные фичи, но развивается он крайне медленно, питон плюс-минус обратно совместим
Скоро у Вас будет возможность оценить это на практике :)
Каким боком вайбкодеры к беспилотным автомобилям? Вайбкодеры могут поставить рой агентов и уйти пить кофе, тогда как автопилоту нужны минимальные и желательно предсказуемые задержки, которые интернет-подключение, очевидно, не даёт
А каким боком GPU к беспилотным автомобилям? Зачем им графические процессоры? Странный вопрос. Вы разбираетесь в том, о чём говорите?
Вайбкодеры - это люди, которые на постоянной основе копипастят программный код из LLM'ок, которые за них решают задачу. В большинстве случаев - решают их с помощью Интернета. Редко кто из них использует локально развёрнутые модели, в основном через API (Интернет для этого нужен, Интернет). В контексте рассуждения о "агенты работают без Интернета" этот пример (вайбкодеры) отлично вписывается.
Да и беспилотные автомобили сейчас в большинстве случаев к Интернету имеют доступ. Как им обновить прошивку удалённо, в случае неполадок? Или интегрировать API для навигации? Ситуация на улице меняется постоянно, поэтому какой-нибудь 2ГИС API на наших дорогах они будут использовать 100%.
Как видите, без Интернета многие вещи просто могут не работать...
Да, huggingface для локального запуска. Сначала скачиваешь модель, потом запускаешь локально сколько влезет. Как .fb2/.epub/.pdf просматриваются локально, скачанные фото, видео, etc просматриваются локально, как к любому другому файлу в ФС на вашем диске доступ происходит локально.
Абсурд. Скачивание как происходит? Посредством Интернета. А значит работать агент без его участия не может, потому что банально чтобы его запустить "локально" нужно его скачать и связаться по Интернету с платформой HuggingFace.
Не знаю почему вы считаете, что тот факт, что веса нужно предварительно скачать опровергает то, что запускаются и работают они потом локально.
Я не опровергаю этот факт. Можете передавать веса локально - через USB-накопители, только на них всё равно нужно загружать веса через Интернет. Без его прямого участия Вы бы даже не знали о существовании LLM.
Я говорю лишь о том, что без Интернета работа агентов ИИ под большим вопросом. Особенно если работа должна быть корректна. Вы с этим не согласны, останемся каждый при своём, ведь у Вас реальное есть время, желание и силы переносить через USB-накопители веса LLM'ок, которые Вы взяли у их создателей, завезли в Россию, и распространяете "локально" без какого либо участия Интернета... более того, туториалы по запуску прилагаете... Бред же, если это было бы действительно так))
Каким образом агент, запущенный локально, сможет успешно выполнять какие-либо скрипты локально (в течении хотя бы 5-ти лет), не зная о нововведениях скриптового языка, который он использует для выполнения задач пользователя? Спойлер: никак. Будете загружать документацию и подгружать её агенту локально? Так она устареет. А без анализа форумов соответствующих технологий агент не сможет понять, какие есть угрозы безопасности при использовании того или иного подхода. Сомневаюсь, что кому-то выгодно использовать агентов с устаревшей информацией...
Кмк, gpu внутри авто это более вероятный сценарий
GPU нужно ещё правильно обслуживать. Сейчас даже большинство вайб-кодеров использует вычислительные ресурсы удалённых ЦОДов, а не разворачивают модели локально... Просто потому что мощные модели требуют значительных вычислительных ресурсов. Всё тут до банального просто...
Получится, см. ollama, huggingface и прочее для локального запуска моделей
HuggingFace - для локального запуска? А как Вы будите запускать LLM локально, без её предварительного скачивания через Интернет?)) Это довольно смешно :)
Смысла бороться с Интернетом нет. Очевидно ведь, что это одна из самых важных и полезных технологий, созданных человечеством.
Лично к Вам у меня претензий никаких нет, Вы просто выложили тезисы на площадке. Вопросы есть к тому, кто вообще инициировал это бессмысленное совещание, пропитанное ложью.
В каком-то смысле Вы принесли дурную весть и пост заминусовали :)
Когда читатель видит что-то подобное... что "президент" "собирает" "совещание" "по развитию ИИ", у него просто может быть сначала ступор, а затем осознание и гнев. К Вам плохо не относятся, плохо относятся к тому, кто такое вообще мог сказать серьёзно, будучи тем, кто прилагает максимум усилий для ликвидации прав и свобод граждан РФ. Буквально вся деятельность этого индивида построена вокруг одной этой цели...
В общем, не относитесь серьёзно к оценке этого поста. Думаю люди просто выражают свой гнев от того, что сейчас происходит.
ИИ наряду с цифровыми платформами и беспилотниками формирует принципиально другой облик всей жизни России, в том числе обороны.
И наряду с Интернетом...
Нужно учитывать, что технологии ИИ стремительно развиваются, становятся все более сложными.
Как и сетевые технологии, на которых построен Интернет...
От способности РФ следовать стремительным технологическим изменениям зависят суверенитет и само существование России
Эта способность возможна только благодаря активному использованию Интернета... (именно само следование стремительным технологическим изменениям)
Агенты ИИ уже подходят к новому уровню самостоятельности, учатся взаимодействовать с людьми и могут имитировать человека.
Агенты ИИ работают с помощью... Интернета...
Уже в ближайшем будущем трудно будет определить, кто управляет автомобилем: человек или нейропилот.
Да, но управление будет происходить с помощью Интернета...
Только при наличии собственных языковых моделей ИИ можно гарантировать обороноспособность и безопасность.
О развитии языковых моделей мы узнаём из Интернета. Доступ к открытым исходным кодам моделей доступен благодаря Интернету. Уроки по Machine Learning размещены в Интернете. Разработка собственных LLM-моделей без Интернета крайне сложна (если вообще возможна).
Поручил правительству вместе с регионами сформировать национальный план внедрения ИИ.
Будет ли ИИ национальным? Национальный ИИ доступный по "белым спискам"? Будет ли это как с мессенджером Max? Всех конкурентов выведут с рынка, чтобы иметь устойчивый денежный поток (на всякие нужды) с обычных граждан?
Российская правовая база в ИИ должна не мешать, а стимулировать разработку передовых технологий.
Уже мешает. Очень сильно мешает. Более того - уничтожает и запрещает. Стимулируется сейчас только одна разработка - способов обхода блокировок и неадекватных решений принимаемых РКН и Минцифрой.
К 2030 году ИИ-продукты должны использоваться во всех областях в РФ, включая экономику и образование.
А ещё к 2030 году ожидается значительное поднятие утильсбора. А касательно ИИ-продуктов... без Интернета их использовать не получится.
Если Россия будет строить барьеры в сфере ИИ, то рискует отстать в этой области.
Не если, а уже строит барьеры и ограничения. Интернет ведь значительно ограничивают и скоро его просто не будет. Отставание неизбежно.
Полный цикл разработки и обучения языковых моделей должен осуществляться российскими компаниями.
Что для этого будут делать? Правильно - законодательно ограничивать использование всех зарубежных LLM и Интернета.
Механизмы образования и подготовки кадров нужно адаптировать к развитию ИИ.
Маловероятно. Цель внутренней политики РФ - ограничение развития ИИ, ограничение развития технологий. Выстраивание барьеров и полное ограничение в правах и свободах своих граждан. О каком развитии может идти речь? Только адаптация. Адаптация людей к государству, в котором они вынуждены жить.
P.S. Такие посты всегда вызывают порыв "справедливого гнева". Я крайне недоволен тем, что сейчас в нашей стране происходит.
Ну так, вперёд. Надеюсь в будущем увидеть Ваш никнейм в числе первых, кто создаст средство обхода всё новых и новых блокировок РКН на C++ доступный каждому, даже если у РКН будет хорошо получаться блокировать и детектить все VPN соединения.
Кстати, а есть ли у Вас уже подобные решения? Хотя бы средство для борьбы с DPI? В профиле никаких ссылок не нашёл на подобные решения...
Вы бы сами попробовали найти эти "несчастные два байта", решить эту проблему и сформировать свой PR, прежде чем судить об этом в таком ключе. Что-то когда проблема была, Вы не спешили её править. Это ж так просто по Вашему, верно? Чего тогда сами не полезли в исходный код и менять какие-то там два байтика?
Все причастные к этим правкам молодцы, проделали хорошую работу. Одно дело говорить "а, это всё просто, какие-то два байтика", но совсем другое понять в чём дело, где и что нужно поменять, что будет после этих новых правок, как раскатать обновление на все приложения и у всех ли такая проблема повторяется. И самое главное - объяснить почему проблема заключалась в этих байтах, а не в других.
Вы так сможете? Чёт не слышал, чтобы Вы помогли поправить ситуацию с блокировками телеграмма...
В этих изменениях нет ничего незаурядного. Любой мало-мальски знакомый с программированием человек это может сделать.
Вы сами-то знакомы с программированием? Если да, то что Вам мешало исправить эту проблему в исходном коде телеграмма на C++, после глубокого анализа проблемы через исследование пакетов и их сравнение на низком уровне? Ничего незаурядного же... так, каждый справится. Верно?
Блокировки Telegram'а ведь и Вам наверное мешали. Чего ж Вы не полезли в исходный код поменять пару строчек? Это ведь так просто... конечно... какой-то там C++ и анализ пакетов, с выяснением того, в чём проблема и как её можно решить универсальным способом... не сложно ведь, да? Я уж молчу про сетевое программирование в целом как направление, которое нужно буквально понимать, чтобы принимать какие-то решения. Но для Вас достаточно и небольших знаний программирования... на уровне "переменная A равна переменной B", верно?
Представьте: вы кидаете ему .zip с проектом, а он выдаёт разбор по архитектуре, находит говнокод, утечки ключей, отсутствие индексов и с удовольствием сообщает, что вся ваша система — «детский сад на колхозе».
Эм... и зачем такое представлять? Сейчас можно спокойно сориентировать любую LLM-модель (желательно с специализацией по кодингу и архитектуре) на проект и она точно также сделает анализ, разбор, и укажет на косяки без токсичной характеристики твоих способностей и умений.
Вообще-то, LLM'ки славятся как раз тем, что как бы хорошо ты не был подкован в программировании - к тебе и твоему труду будет всегда адекватное, не токсичное, сбалансированное отношение. Может Вам норм, когда хамят и обесценивают Ваш труд - не осуждаю, у всех есть свои "тараканы в голове". Лично мне всегда приятно получать развёрнутые комментарии по тому или иному архитектурному решению без токсичной ерунды, которую может высказать какой-нибудь ЧСВ'ешный чел, считающий себя "самым умным" (в большинстве случаев - безосновательно). Такое может нравится, разве что, "лицам с мазохистскими наклонностями", но это моё мнение.
Не встречал ещё человека, которому нравится когда ему хамят.
Кто уже попробовал подобных агентов — поделитесь в комментариях, насколько они у вас живые и наглые. Интересно сравнить.
Зачем? Зачем кому-то делать... наглое хамло в виде LLM агентов? Просто потому что "прикольно"? Ну... тогда всё ок. Всё таки по этой причине люди много чего делают, LLM-модели не исключение.
Очень надеюсь, что модерация Хабра снесет эти бредни в ближайшее время, ибо статья абсолютный поток псевдотехнической чепухи, а автор даже не смотрел дальше двух строк на файл
статья является полнейшим введением в заблуждение
Вы, похоже, крайне заинтересованы, чтобы этот материал снесли? Какой-то, возможно, личный у этого есть интерес? Смотрю на существующий нейрослоп так остро не реагируете... видимо у Вас есть какое-то отношение к этому репозиторию, раз Вы его так защищаете :)
Как ручной тестировщик, я прокликал основные сценарии, но глаз уже замылился. Буду очень рад, если сообщество Хабра зайдет и устроит моему приложению жесткий краш-тест.
Вообще, подобного рода статьи часто несут в себе "самодискредитацию" и обесценивают любые Ваши трудозатраты, применяемые к данному проекту.. Зачем кому-то тратить время на "Ваш проект", когда любой желающий пользователь, не имеющий опыта в программировании и навыков разработки в принципе может сделать тоже самое, ещё может быть и лучше? Смысл устраивать Вашему приложению краш-тест, когда можно собрать своё "за выходные"? Вообще нет никакого смысла, как и обращать внимание на такой проект - можно тоже самое сделать по тому же алгоритму действий что и Вы, да ещё и сделать это лучше (особенно, если этим будет заниматься человек, который имеет опыт разработки).
Пишите любые найденные баги, критикуйте UI/UX (например, левый сайдбар для фильтров), ругайте вайбкодинг — для меня сейчас нет ничего ценнее вашей суровой обратной связи!
И обратную связь нет смысла давать в таком случае. Любой труд в рамках данного проекта обесценен, "раз я могу собрать такое сам за выходные". Зачем кому-то вообще его смотреть?... Ещё и время тратить на обратную связь...
1) Весь хабр был обманут. Был обманут настолько "технично", что никто даже не понял (по-началу) что это ИИ-мусор.
Да ну не весь. Кто-то понял сразу что это обман, кто-то (как я) немного позднее. Автор, скажем прямо, не сильно то и постарался, чтобы "зачистить следы обмана". Этот обман не был чем-то "крутым" или "техничным", многие поняли что это обман и чушь.
И то, что автор какое-то число пользователей площадки обманул - не делает его "крутым" (я чувствую в ваших комментариях к этому автору положительное отношение, в частности исходя из некоторых употребляемых предложений в контексте данной ситуации).
2) На основе такого "успеха" будут и другие писаки писать полу-ИИ статьи. Настолько похожие, что легко поверить что это писал человек.
Эта проблема сформировалась уже давно... как только стали массово использовать LLM. Может и ещё раньше... Сейчас кто-то для редактуры ИИ использует - считать ли это "полу-ИИ статьями" или нет?
Вы правда считаете, что просто "пожалуйста, не пишите нам статьи с помощью ИИ, а то они такие классные (3 из 3х в топ3), что мы все их лайкаем" будет рабочим вариантом? Или что конкретно вы предлагаете, я не нашел в вашем сообщении.
Я так не считаю и я ничего не предлагаю. Но я за то, чтобы к таким прецедентам обращать внимание и быть более объективным в оценке той или иной статьи, чтобы не продвигать таких обманщиков в топ площадки.
1) Либо сделать так, чтобы на хабре можно было поставить минус уже после того, как поставил плюс. тогда такие обманные статьи будут уходить обратно в дно. Но тут могут начаться и более сложные абузы (когда статья в целом хорошая и полезная, поэтому ей сначала ставят плюс, но после этого в комментариях автор начинает высказывать свою радикальную политическую позицию касательно жизни обезьянки в какой-нибудь Японии, и после этого минусят его и его статью, хотя сама статья то хорошая и полезная. кажется, с самого дня создания хабра был запрет на переголосование).
Согласен. Можно этот механизм доработать таким образом, чтобы переголосовать можно было бы до первого комментария. Проголосовал положительно? Ок, если написал комментарий - нельзя голос менять. Проголосовал отрицательно? Ок, если написал комментарий, то можешь поменять голос к статье. Такой механизм, как мне кажется, мог бы перестраховать автора от негативного голосования. А юзер мог прочитать комментарии и переголосовать заново (потому что статья, например, обманчива).
Главное не забыть закончить диалог каким-нибудь положительным комментарием, в котором обязательно не искренне пожелать успехов, чтобы не дай бог кому-нибудь не показаться "плохим" в этой словесной перестрелке :)))
Результат моей работы (которая под NDA) - публично доступна для скачивания и этой экосистемой приложения пользуется большое число людей. В комментарии выше можно заметить, что я предложил "создать веб-приложение, которое бы демонстрировало работу вашей системы", потому что одно дело - код под NDA, другое - внешняя оболочка. Если внешняя оболочка простой скрипт сгенерированный на ChatGPT демонстрирующий... ничего, то и знакомиться там не с чем.
Если вы такие крутые разработчики ИИ, то предлагаю вам ознакомиться с этой очень классной статьей про RL-алгоритмы.
https://habr.com/ru/articles/991622/
Очень сомневаюсь, что вы вообще поймёте о чём там идёт речь. Ну а что, вы ведь точно эксперты в RL-алгоритмах? Может по достоинству оцените данное исследование и личная самооценка по умерится?
О, ничего себе, первый собеседник вернулся :) Знаете, если вы будите так общаться с аудиторией, то в серьёз вас воспринимать она не будет. Вы прям брызжите слюной, лишь бы как-то задеть, как-то унизить оппонента, как-то выставить себя в более "положительном ключе". Очень наивно. Это поведение ребёнка, а не взрослого человека.
Я не знаю каков ваш уровень погружения в тему ML (у собеседника из предыдущего комментария он, вероятно, выше), но лично я имею неплохое представление о том, как устроены классические конвейеры машинного обучения. Конкретно в область NLP я глубоко не погружался, на данный момент я занимаюсь исследованием, в ходе которого разрабатываю систему для своевременного обнаружения противоправного поведения людей (формулировка задачи для вас - максимально абстрактная, как вы любите, разумеется по факту звучит она более приземлённо) по видеопотоку из камеры. Погружаюсь в эту область, и тут также использую трансформеры (на базе RT-DETR), и мультимодальные свойства LLM-агентов (на базе общедоступного Qween). В общем-то, я бы не сказал что я прям 0 в ML и ничего не понимаю (что, по видимому, истеричный собеседник №1 и пытался донести), однако у меня достаточно навыка системного анализа, чтобы достаточно быстро разбираться в интересных для меня темах. И сейчас мой фокус - AI&ML направление. Собственно, по теме исследования это и так понятно.
Что касательно портфолио - в контексте AI&ML направления оно маленькое. Оно в целом маленькое, потому что разработки которые под NDA нельзя публиковать в публичные репозитории (это ведь, нормальная практика, да? :))).
Данный комментарий отличается от предыдущего на столько, что можно предположить, будто пишет совершенно другой человек. Вы всей командой отвечаете на сообщения под статьями? :)
Ну, ваш коллега как бы не однократно писал под данной статьёй комментарии, что у него то вот есть результаты в публичном доступе, которые "доступны и можно посмотреть" (соответствующие комментарии выше), а я достаточно опытный разработчик чтобы судить о результатах по факту. Я зашёл посмотреть, ничего существенного не увидел. Даже пример сгенерировал одной из нейронок, который по стилю и тону на эту демку очень похож. Просто что-то переусложнённое, для бизнеса, для демонстрации "глубокой экспертизы" и иллюзии достижения результата.
OpenClaw, например, разрабатывают довольно сложную систему и выпускают её в открытый доступ, а с помощью неё, на секундочку, уже можно автоматизировать рабочее место так, что человек нужен будет только в точке "целеполагания работ" и контроля. Вы могли бы поступить аналогично. Хотя бы в браузере дать доступ к каким-то существующим результатам (сгенерировать веб-приложение на ChatGPT / DeepSeek / Qween, которое будет обращаться по API к вашей нейронки - довольно просто). Вы этого не сделали. Следовательно - странная история... Банально чат-бот сделать в телеграм или вебе уже бы демонстрировало серьёзный подход к делу. Ведь ничего не теряете в сущности, если предоставите общепринятый интерфейс для взаимодействия с чат-ботами. Никакие конкуренты ничего не своруют :)
Надеюсь вы понимаете разницу между асинхронными и параллельными вычислениями... А то тут сразу "фоновый процесс", "вычисляется асинхронно", "даже когда к нему никто не обращается"... некоторая смесь получается, которую интерпретировать можно по разному.
Ну вот теперь более менее понятно. Вот сама суть. Классический Reinforcement Learning (RL), его вы, собственно, и описываете.
Это не всегда нормально. Я уже встречал подобные идеи, которые патентовали разные патентные тролли без какого-то реального результата. Грубо говоря, пришла им в голову мысль, сгенерировали с помощью LLM патент и отправили на регистрацию. Просто патентный троллинг, не более. Склоняюсь к тому, что текущий проект что-то в этом духе тоже преследует, т.к. результатов я не увидел никаких. Могли бы и продемонстрировать хотя бы веб-приложение, а не просто кидаться архитектурой "суверенного ИИ". Пока что - всё странно (по моему субъективному мнению) :)
Продолжайте отвечать на комментарии и писать публичные демки через ChatGPT :)
Да, я собственно с этим скриптом уже ознакомился и охарактеризовал его уже в комментарии выше как "генератор псевдореалистичных метрик на базе SHA-256" или "красиво оформленный псевдослучайный симулятор". Ничего такого, что отражало бы какую-то конкретную идею я там не увидел. Просто симулятор... концепт, чего-то "переусложнённого", не более.
Это тоже самое, как если бы я написал Python-скрипт концепт "суверенного нейроморфного визуально подкреплённого графического движка, с рандомным разбросом дисперсии математической величины в пространстве K^2 и K^3 степени на базе реального геометрического пространства детерминированной величины в кластере B1 и B2"
Собственно, вот сгенерированный одной из нейронных сетей "прототип" для "бизнес-заказчика":
Тоже что-то сложное... тоже что-то "псевдо глубокое" и точно также - ничего не демонстрирует в сущности, как и размещённый на GitHub Ваше демо:
https://github.com/fsbioai/metabolicai/blob/main/metabolic_ai_demo.py
Я знаком с таким проектом как Character.AI. Они там тоже стремятся к сохранению консистентной идентичности... За счёт настраивания LLM'ок, конечно, но просто ради интереса рекомендую взглянуть.
Приоритизацией памяти без RAG-костылей? Вы имеете ввиду, что источники данных он будет выбирать как-то по другому? Самостоятельно? Так и пишите, зачем усложнять? Но ведь и современные агенты этим также занимаются... могут разные источники просто взять и обобщить в них информацию. А могут какие-то источники и убрать. И RAG-это не костыль, а интерфейс для настройки LLM-агенты под нужды бизнеса. Его ориентация на те задачи, которые в контексте их задач сейчас актуальны. И что за... "асинхронная инициатива"? Вы тут, наверное, имели ввиду управление ПК (или выполнение задач) независимо от человека? Так и с OpenClaw сейчас тоже самое доступно. Разверните агентов на своём ПК и дайте какую-нибудь задачу, они могут многое сделать независимо друг от друга (кто-то в терминале, кто-то в таблице, кто-то ещё где-нибудь).
Ну... в демке указана версия 9.0:
Что-то... не то.
Я, конечно, желаю Вам удачи, но складывается ощущение, что результатов конкретных нет... и всё это пока на базе переусложнённой и логически бессвязной концепции, суть которой в безоговорочном стремлении создать "наш, российский, суверенный агент на базе сложнейшей концепции, которую простым смертным не понять". Я встречал подобное творчество от других людей... которые, буквально, помешались на ИИ (или что они под этим словом подразумевают). Ваше творчество мне чем-то это напоминает... Тот случай, когда хотел бы ошибаться :)
В целом, статья мне показалась интересной с точки зрения некоторых используемых идей... но вот остальное, всё очень странно. Вроде бы и вещи говорит автор умные, а вроде бы автор чрезмерно помешан на патриотизме к РФ и выражает ясную озабоченность её национальными интересами... Собственно, складывается ощущение, что вся цель данного проекта быть просто "100% российским национальным ИИ, построенном на отечественных (и ничего кроме отечественных) технологиях". Это странно выглядит.
Ознакомился также с группой в телеграмм и там ситуация точно такая же. "Отечественная наука", "сильный отечественный фундамент" и прочее в этом духе... Так то наука это не только про Россию, если что. Разные страны вносят разный вклад в общее человеческое дело, и российские учёные не единственные кто приносит пользу всему человечеству, в этом смысле. Странно делать акцент на "родину и ИИ", при этом активно используя достижения международного научного сообщества (Python, всё-таки, сделан не в РФ был, но используют его даже в Северной Корее). Это очень вредный фокус, как я считаю. Особенно в текущей внешней и внутренней политической обстановке.
Хотя, быть может это очередная попытка просто срубить бабла с государственного гранта. Если будет фактически доказанная лояльность текущему режиму и следование его интересам (народный ИИ, отечественные технологии, национализм, и прочее), то и грант получить можно.
Вообще, я нигде не увидел конкретного результата который можно было бы оценить. Так всё красиво расписано, но ничего кроме красиво оформленного псевдослучайного симулятора в 530 строчек Python кода на GitHub я не увидел. Сложная терминология, конечно, есть, но она лишь создаёт ощущение погружения в глубину, которое может и отсутствовать вовсе (к чему я и склоняюсь).
Акцент на "суверенном ИИ", очень много сложной и местами переусложнённой терминологии (которая, видимо, была использована с целью демонстрации "глубины погружения в тему") и псевдослучайный симулятор на GitHub, который демонстрирует... Непонятно что, честно говоря. Генерирует псевдореалистичные метрики на базе SHA-256 и всё... Ну и state machine тут ещё есть... может это просто очень урезанный интерфейс для привлечения внимания... но такое можно и с обычной LLM'кой галлюционирующей сделать (не в обиду авторам, просто может было бы лучше как-то раскрыть больше деталей, а не останавливаться на заготовке).
Ваша команда уже что-то реализовала практически? Просто интересно. Или это чисто теоретическая архитектура, которая сейчас патентуется и в будущем планируется её полноценная разработка? Пока что сложно судить что это за проект... Вроде и препринты есть (это предварительные версии исследований, а не законченные их версии), и код мало мальски на GitHub'е есть, но позиционирование... заставляет задуматься о проекте в несколько ином ключе.
Это называется "вайб-кодинг" или "vibe coding", не стесняйтесь изначального наименования этого процесса :)
Да, и в один прекрасный момент LLM-компаниям ничего не будет стоить поднять цены за токены ещё выше, ещё выше и ещё выше... Мы живём в капитализме, думаю так примерно и будет. Чтобы "программировать" в будущем нужно будет платить много денег)
А зачем на этом уровне оставаться? LLM отлично заменяет человека в планировании и контроле уже сейчас, достаточно развернуть сеть агентов и задать им одну общую задачу. А они там и спланируют, и код напишут, и протестируют всё... только обратную связь остаётся им давать, чтобы скорректировать результат.
Последовательно с разной скоростью каждый новый слой работ у разработчика будут забирать LLM'ки. Сначала кодинг, потом программирование, затем архитектура, системный анализ, проектирование, планирование (на всех этапах), сопровождение, и так далее... А мы всё и дальше будем облегчать себе жизнь мыслями о том, что "разработчик всегда будет нужен на этапе <подставить то, что будет заменено LLM-кой в ближайшие годы>".
Программирование, разработка и в целом IT с участием людей в роли исполнителя всё быстрее и быстрее умирает в принципе... Как и многое другое что связано с интеллектуальной деятельностью и творчеством. Тут уж точно каждый сам за себя и без принципа "не можешь победить - возглавь" тут никак.
Руководству не выгодно будет таких сотрудников держать, которые могут спокойно идти чай пить, да кофе (напомню - мы в капитализме живём и меняться ничего не будет) в то время как LLM'ка будет решать задачи. Зачем нужна эта прослойка в виде человека в таком случае? Достаточно нанять менеджера с "Эй Ай" навыками и всё... Дать ему глоссарий разработчика, да и пущай работает.
Не обесценивайте результаты десятилетних исследований, ведь именно благодаря им (в том числе) существование больших языковых моделей в принципе сегодня возможно. Без таких исследований "вайб-кодинг" не мог бы существовать в принципе.
А выбор у Ваших коллег будет - использовать LLM или нет? А то как-то... странно. Вам, значит, это всё понравилось, всё хорошо, и надо всем остальным навязать такое же отношение что ли? Как будто тут выбора то и нет... использовать LLM или нет.
Какими это, например? Своими личными проектами в рабочее время? Или распитием кофе, пока LLM'ка будет всю задачу за Вас выполнять? :)
Я о 5-ти годах говорил в контексте того, что будет скачана модель (1 раз) и больше в течении 5-ти лет её обновлять никто не будет (ведь без Интернета ведь LLM-агенты работают и нормально?).
Скоро у Вас будет возможность оценить это на практике :)
А каким боком GPU к беспилотным автомобилям? Зачем им графические процессоры? Странный вопрос. Вы разбираетесь в том, о чём говорите?
Вайбкодеры - это люди, которые на постоянной основе копипастят программный код из LLM'ок, которые за них решают задачу. В большинстве случаев - решают их с помощью Интернета. Редко кто из них использует локально развёрнутые модели, в основном через API (Интернет для этого нужен, Интернет). В контексте рассуждения о "агенты работают без Интернета" этот пример (вайбкодеры) отлично вписывается.
Да и беспилотные автомобили сейчас в большинстве случаев к Интернету имеют доступ. Как им обновить прошивку удалённо, в случае неполадок? Или интегрировать API для навигации? Ситуация на улице меняется постоянно, поэтому какой-нибудь 2ГИС API на наших дорогах они будут использовать 100%.
Как видите, без Интернета многие вещи просто могут не работать...
Абсурд. Скачивание как происходит? Посредством Интернета. А значит работать агент без его участия не может, потому что банально чтобы его запустить "локально" нужно его скачать и связаться по Интернету с платформой HuggingFace.
Я не опровергаю этот факт. Можете передавать веса локально - через USB-накопители, только на них всё равно нужно загружать веса через Интернет. Без его прямого участия Вы бы даже не знали о существовании LLM.
Я говорю лишь о том, что без Интернета работа агентов ИИ под большим вопросом. Особенно если работа должна быть корректна. Вы с этим не согласны, останемся каждый при своём, ведь у Вас реальное есть время, желание и силы переносить через USB-накопители веса LLM'ок, которые Вы взяли у их создателей, завезли в Россию, и распространяете "локально" без какого либо участия Интернета... более того, туториалы по запуску прилагаете... Бред же, если это было бы действительно так))
Каким образом агент, запущенный локально, сможет успешно выполнять какие-либо скрипты локально (в течении хотя бы 5-ти лет), не зная о нововведениях скриптового языка, который он использует для выполнения задач пользователя? Спойлер: никак. Будете загружать документацию и подгружать её агенту локально? Так она устареет. А без анализа форумов соответствующих технологий агент не сможет понять, какие есть угрозы безопасности при использовании того или иного подхода. Сомневаюсь, что кому-то выгодно использовать агентов с устаревшей информацией...
GPU нужно ещё правильно обслуживать. Сейчас даже большинство вайб-кодеров использует вычислительные ресурсы удалённых ЦОДов, а не разворачивают модели локально... Просто потому что мощные модели требуют значительных вычислительных ресурсов. Всё тут до банального просто...
HuggingFace - для локального запуска? А как Вы будите запускать LLM локально, без её предварительного скачивания через Интернет?)) Это довольно смешно :)
Смысла бороться с Интернетом нет. Очевидно ведь, что это одна из самых важных и полезных технологий, созданных человечеством.
Да, они исполнители определённой группы очень не хороших людей, выступающих заказчиками.
Лично к Вам у меня претензий никаких нет, Вы просто выложили тезисы на площадке. Вопросы есть к тому, кто вообще инициировал это бессмысленное совещание, пропитанное ложью.
В каком-то смысле Вы принесли дурную весть и пост заминусовали :)
Когда читатель видит что-то подобное... что "президент" "собирает" "совещание" "по развитию ИИ", у него просто может быть сначала ступор, а затем осознание и гнев. К Вам плохо не относятся, плохо относятся к тому, кто такое вообще мог сказать серьёзно, будучи тем, кто прилагает максимум усилий для ликвидации прав и свобод граждан РФ. Буквально вся деятельность этого индивида построена вокруг одной этой цели...
В общем, не относитесь серьёзно к оценке этого поста. Думаю люди просто выражают свой гнев от того, что сейчас происходит.
И наряду с Интернетом...
Как и сетевые технологии, на которых построен Интернет...
Эта способность возможна только благодаря активному использованию Интернета... (именно само следование стремительным технологическим изменениям)
Агенты ИИ работают с помощью... Интернета...
Да, но управление будет происходить с помощью Интернета...
О развитии языковых моделей мы узнаём из Интернета. Доступ к открытым исходным кодам моделей доступен благодаря Интернету. Уроки по Machine Learning размещены в Интернете. Разработка собственных LLM-моделей без Интернета крайне сложна (если вообще возможна).
Будет ли ИИ национальным? Национальный ИИ доступный по "белым спискам"? Будет ли это как с мессенджером Max? Всех конкурентов выведут с рынка, чтобы иметь устойчивый денежный поток (на всякие нужды) с обычных граждан?
Уже мешает. Очень сильно мешает. Более того - уничтожает и запрещает. Стимулируется сейчас только одна разработка - способов обхода блокировок и неадекватных решений принимаемых РКН и Минцифрой.
А ещё к 2030 году ожидается значительное поднятие утильсбора. А касательно ИИ-продуктов... без Интернета их использовать не получится.
Не если, а уже строит барьеры и ограничения. Интернет ведь значительно ограничивают и скоро его просто не будет. Отставание неизбежно.
Что для этого будут делать? Правильно - законодательно ограничивать использование всех зарубежных LLM и Интернета.
Маловероятно. Цель внутренней политики РФ - ограничение развития ИИ, ограничение развития технологий. Выстраивание барьеров и полное ограничение в правах и свободах своих граждан. О каком развитии может идти речь? Только адаптация. Адаптация людей к государству, в котором они вынуждены жить.
P.S. Такие посты всегда вызывают порыв "справедливого гнева". Я крайне недоволен тем, что сейчас в нашей стране происходит.
Ну так, вперёд. Надеюсь в будущем увидеть Ваш никнейм в числе первых, кто создаст средство обхода всё новых и новых блокировок РКН на C++ доступный каждому, даже если у РКН будет хорошо получаться блокировать и детектить все VPN соединения.
Кстати, а есть ли у Вас уже подобные решения? Хотя бы средство для борьбы с DPI? В профиле никаких ссылок не нашёл на подобные решения...
Вы бы сами попробовали найти эти "несчастные два байта", решить эту проблему и сформировать свой PR, прежде чем судить об этом в таком ключе. Что-то когда проблема была, Вы не спешили её править. Это ж так просто по Вашему, верно? Чего тогда сами не полезли в исходный код и менять какие-то там два байтика?
Все причастные к этим правкам молодцы, проделали хорошую работу. Одно дело говорить "а, это всё просто, какие-то два байтика", но совсем другое понять в чём дело, где и что нужно поменять, что будет после этих новых правок, как раскатать обновление на все приложения и у всех ли такая проблема повторяется. И самое главное - объяснить почему проблема заключалась в этих байтах, а не в других.
Вы так сможете? Чёт не слышал, чтобы Вы помогли поправить ситуацию с блокировками телеграмма...
Вы сами-то знакомы с программированием? Если да, то что Вам мешало исправить эту проблему в исходном коде телеграмма на C++, после глубокого анализа проблемы через исследование пакетов и их сравнение на низком уровне? Ничего незаурядного же... так, каждый справится. Верно?
Блокировки Telegram'а ведь и Вам наверное мешали. Чего ж Вы не полезли в исходный код поменять пару строчек? Это ведь так просто... конечно... какой-то там C++ и анализ пакетов, с выяснением того, в чём проблема и как её можно решить универсальным способом... не сложно ведь, да? Я уж молчу про сетевое программирование в целом как направление, которое нужно буквально понимать, чтобы принимать какие-то решения. Но для Вас достаточно и небольших знаний программирования... на уровне "переменная A равна переменной B", верно?
Эм... и зачем такое представлять? Сейчас можно спокойно сориентировать любую LLM-модель (желательно с специализацией по кодингу и архитектуре) на проект и она точно также сделает анализ, разбор, и укажет на косяки без токсичной характеристики твоих способностей и умений.
Вообще-то, LLM'ки славятся как раз тем, что как бы хорошо ты не был подкован в программировании - к тебе и твоему труду будет всегда адекватное, не токсичное, сбалансированное отношение. Может Вам норм, когда хамят и обесценивают Ваш труд - не осуждаю, у всех есть свои "тараканы в голове". Лично мне всегда приятно получать развёрнутые комментарии по тому или иному архитектурному решению без токсичной ерунды, которую может высказать какой-нибудь ЧСВ'ешный чел, считающий себя "самым умным" (в большинстве случаев - безосновательно). Такое может нравится, разве что, "лицам с мазохистскими наклонностями", но это моё мнение.
Не встречал ещё человека, которому нравится когда ему хамят.
Зачем? Зачем кому-то делать... наглое хамло в виде LLM агентов? Просто потому что "прикольно"? Ну... тогда всё ок. Всё таки по этой причине люди много чего делают, LLM-модели не исключение.
Вы, похоже, крайне заинтересованы, чтобы этот материал снесли? Какой-то, возможно, личный у этого есть интерес? Смотрю на существующий нейрослоп так остро не реагируете... видимо у Вас есть какое-то отношение к этому репозиторию, раз Вы его так защищаете :)
Вообще, подобного рода статьи часто несут в себе "самодискредитацию" и обесценивают любые Ваши трудозатраты, применяемые к данному проекту.. Зачем кому-то тратить время на "Ваш проект", когда любой желающий пользователь, не имеющий опыта в программировании и навыков разработки в принципе может сделать тоже самое, ещё может быть и лучше? Смысл устраивать Вашему приложению краш-тест, когда можно собрать своё "за выходные"? Вообще нет никакого смысла, как и обращать внимание на такой проект - можно тоже самое сделать по тому же алгоритму действий что и Вы, да ещё и сделать это лучше (особенно, если этим будет заниматься человек, который имеет опыт разработки).
И обратную связь нет смысла давать в таком случае. Любой труд в рамках данного проекта обесценен, "раз я могу собрать такое сам за выходные". Зачем кому-то вообще его смотреть?... Ещё и время тратить на обратную связь...
Да ну не весь. Кто-то понял сразу что это обман, кто-то (как я) немного позднее. Автор, скажем прямо, не сильно то и постарался, чтобы "зачистить следы обмана". Этот обман не был чем-то "крутым" или "техничным", многие поняли что это обман и чушь.
И то, что автор какое-то число пользователей площадки обманул - не делает его "крутым" (я чувствую в ваших комментариях к этому автору положительное отношение, в частности исходя из некоторых употребляемых предложений в контексте данной ситуации).
Эта проблема сформировалась уже давно... как только стали массово использовать LLM. Может и ещё раньше... Сейчас кто-то для редактуры ИИ использует - считать ли это "полу-ИИ статьями" или нет?
Я так не считаю и я ничего не предлагаю. Но я за то, чтобы к таким прецедентам обращать внимание и быть более объективным в оценке той или иной статьи, чтобы не продвигать таких обманщиков в топ площадки.
Согласен. Можно этот механизм доработать таким образом, чтобы переголосовать можно было бы до первого комментария. Проголосовал положительно? Ок, если написал комментарий - нельзя голос менять. Проголосовал отрицательно? Ок, если написал комментарий, то можешь поменять голос к статье. Такой механизм, как мне кажется, мог бы перестраховать автора от негативного голосования. А юзер мог прочитать комментарии и переголосовать заново (потому что статья, например, обманчива).