Обновить
35
Даниил Солопов@dan_sw

V.O.I.D. Programmer

0,7
Рейтинг
6
Подписчики
Хабр КарьераХабр Карьера
Отправить сообщение

Главное не забыть закончить диалог каким-нибудь положительным комментарием, в котором обязательно не искренне пожелать успехов, чтобы не дай бог кому-нибудь не показаться "плохим" в этой словесной перестрелке :)))

двойной стандарт

Результат моей работы (которая под NDA) - публично доступна для скачивания и этой экосистемой приложения пользуется большое число людей. В комментарии выше можно заметить, что я предложил "создать веб-приложение, которое бы демонстрировало работу вашей системы", потому что одно дело - код под NDA, другое - внешняя оболочка. Если внешняя оболочка простой скрипт сгенерированный на ChatGPT демонстрирующий... ничего, то и знакомиться там не с чем.

Если вы такие крутые разработчики ИИ, то предлагаю вам ознакомиться с этой очень классной статьей про RL-алгоритмы.
https://habr.com/ru/articles/991622/
Очень сомневаюсь, что вы вообще поймёте о чём там идёт речь. Ну а что, вы ведь точно эксперты в RL-алгоритмах? Может по достоинству оцените данное исследование и личная самооценка по умерится?

О, ничего себе, первый собеседник вернулся :) Знаете, если вы будите так общаться с аудиторией, то в серьёз вас воспринимать она не будет. Вы прям брызжите слюной, лишь бы как-то задеть, как-то унизить оппонента, как-то выставить себя в более "положительном ключе". Очень наивно. Это поведение ребёнка, а не взрослого человека.

Я не знаю каков ваш уровень погружения в тему ML (у собеседника из предыдущего комментария он, вероятно, выше), но лично я имею неплохое представление о том, как устроены классические конвейеры машинного обучения. Конкретно в область NLP я глубоко не погружался, на данный момент я занимаюсь исследованием, в ходе которого разрабатываю систему для своевременного обнаружения противоправного поведения людей (формулировка задачи для вас - максимально абстрактная, как вы любите, разумеется по факту звучит она более приземлённо) по видеопотоку из камеры. Погружаюсь в эту область, и тут также использую трансформеры (на базе RT-DETR), и мультимодальные свойства LLM-агентов (на базе общедоступного Qween). В общем-то, я бы не сказал что я прям 0 в ML и ничего не понимаю (что, по видимому, истеричный собеседник №1 и пытался донести), однако у меня достаточно навыка системного анализа, чтобы достаточно быстро разбираться в интересных для меня темах. И сейчас мой фокус - AI&ML направление. Собственно, по теме исследования это и так понятно.

Что касательно портфолио - в контексте AI&ML направления оно маленькое. Оно в целом маленькое, потому что разработки которые под NDA нельзя публиковать в публичные репозитории (это ведь, нормальная практика, да? :))).

Данный комментарий отличается от предыдущего на столько, что можно предположить, будто пишет совершенно другой человек. Вы всей командой отвечаете на сообщения под статьями? :)

Вы потратили время на разбор публичной заглушки для бизнес-демонстрации

Ну, ваш коллега как бы не однократно писал под данной статьёй комментарии, что у него то вот есть результаты в публичном доступе, которые "доступны и можно посмотреть" (соответствующие комментарии выше), а я достаточно опытный разработчик чтобы судить о результатах по факту. Я зашёл посмотреть, ничего существенного не увидел. Даже пример сгенерировал одной из нейронок, который по стилю и тону на эту демку очень похож. Просто что-то переусложнённое, для бизнеса, для демонстрации "глубокой экспертизы" и иллюзии достижения результата.

OpenClaw, например, разрабатывают довольно сложную систему и выпускают её в открытый доступ, а с помощью неё, на секундочку, уже можно автоматизировать рабочее место так, что человек нужен будет только в точке "целеполагания работ" и контроля. Вы могли бы поступить аналогично. Хотя бы в браузере дать доступ к каким-то существующим результатам (сгенерировать веб-приложение на ChatGPT / DeepSeek / Qween, которое будет обращаться по API к вашей нейронки - довольно просто). Вы этого не сделали. Следовательно - странная история... Банально чат-бот сделать в телеграм или вебе уже бы демонстрировало серьёзный подход к делу. Ведь ничего не теряете в сущности, если предоставите общепринятый интерфейс для взаимодействия с чат-ботами. Никакие конкуренты ничего не своруют :)

вычисляется асинхронно

Надеюсь вы понимаете разницу между асинхронными и параллельными вычислениями... А то тут сразу "фоновый процесс", "вычисляется асинхронно", "даже когда к нему никто не обращается"... некоторая смесь получается, которую интерпретировать можно по разному.

Агент помнит то, что вызвало “эмоциональный” отклик, а не то, что чаще встречается в логах.

Ну вот теперь более менее понятно. Вот сама суть. Классический Reinforcement Learning (RL), его вы, собственно, и описываете.

То, что для вас это звучит как «переусложнённая бессвязная концепция» — абсолютно нормально

Это не всегда нормально. Я уже встречал подобные идеи, которые патентовали разные патентные тролли без какого-то реального результата. Грубо говоря, пришла им в голову мысль, сгенерировали с помощью LLM патент и отправили на регистрацию. Просто патентный троллинг, не более. Склоняюсь к тому, что текущий проект что-то в этом духе тоже преследует, т.к. результатов я не увидел никаких. Могли бы и продемонстрировать хотя бы веб-приложение, а не просто кидаться архитектурой "суверенного ИИ". Пока что - всё странно (по моему субъективному мнению) :)

Продолжайте изучать публичные демки и настраивать агентов для таблиц)

Продолжайте отвечать на комментарии и писать публичные демки через ChatGPT :)

привет, на гитхаб есть в шапке демо метка “PURPOSE : Business-presentation demonstration of Metabolic AI capabilities. All internal computation is encapsulated behind the MetabolicEngine interface. Implementation details are proprietary and not exposed.” И еще чуть ниже "# LOW-LEVEL ENTROPY / DETERMINISM UTILITIES

Да, я собственно с этим скриптом уже ознакомился и охарактеризовал его уже в комментарии выше как "генератор псевдореалистичных метрик на базе SHA-256" или "красиво оформленный псевдослучайный симулятор". Ничего такого, что отражало бы какую-то конкретную идею я там не увидел. Просто симулятор... концепт, чего-то "переусложнённого", не более.

Это тоже самое, как если бы я написал Python-скрипт концепт "суверенного нейроморфного визуально подкреплённого графического движка, с рандомным разбросом дисперсии математической величины в пространстве K^2 и K^3 степени на базе реального геометрического пространства детерминированной величины в кластере B1 и B2"

Собственно, вот сгенерированный одной из нейронных сетей "прототип" для "бизнес-заказчика":

"""
Sovereign Neuromorphic Visually-Reinforced Graph Engine (SNVRGE)
v0.3 experimental draft

Concept:
- Neuromorphic nodes (spiking-like dynamics)
- Visual reinforcement loop (pseudo-feedback)
- Variance diffusion over K^2 and K^3 manifolds
- Deterministic-chaotic evolution

NOTE: This is conceptual / experimental nonsense with structure.
"""

import math
import random
import hashlib
from typing import List, Tuple, Dict


# ─────────────────────────────────────────────────────────────
#  CORE MATHEMATICAL SPACE
# ─────────────────────────────────────────────────────────────

class KSpace:
    def __init__(self, dim_power: int, size: int = 32):
        self.dim_power = dim_power  # 2 or 3
        self.size = size
        self.field = self._init_field()

    def _init_field(self):
        if self.dim_power == 2:
            return [[random.random() for _ in range(self.size)] for _ in range(self.size)]
        elif self.dim_power == 3:
            return [[[random.random() for _ in range(self.size)]
                     for _ in range(self.size)]
                     for _ in range(self.size)]
        else:
            raise ValueError("Only K^2 or K^3 supported")

    def sample(self, coords: Tuple[int, ...]) -> float:
        if self.dim_power == 2:
            x, y = coords
            return self.field[x % self.size][y % self.size]
        else:
            x, y, z = coords
            return self.field[x % self.size][y % self.size][z % self.size]

    def diffuse_variance(self, intensity: float):
        # pseudo diffusion
        if self.dim_power == 2:
            for i in range(self.size):
                for j in range(self.size):
                    delta = (random.random() - 0.5) * intensity
                    self.field[i][j] += delta
        else:
            for i in range(self.size):
                for j in range(self.size):
                    for k in range(self.size):
                        delta = (random.random() - 0.5) * intensity
                        self.field[i][j][k] += delta


# ─────────────────────────────────────────────────────────────
#  NEUROMORPHIC NODE
# ─────────────────────────────────────────────────────────────

class NeuroNode:
    def __init__(self, node_id: int):
        self.node_id = node_id
        self.potential = random.random()
        self.threshold = 0.7 + random.random() * 0.3
        self.connections: List["NeuroNode"] = []

    def connect(self, other: "NeuroNode"):
        self.connections.append(other)

    def integrate(self, stimulus: float):
        self.potential += stimulus * 0.5

    def spike(self) -> float:
        if self.potential >= self.threshold:
            self.potential *= 0.3
            return 1.0
        return 0.0


# ─────────────────────────────────────────────────────────────
#  VISUAL REINFORCEMENT LAYER
# ─────────────────────────────────────────────────────────────

class VisualField:
    def __init__(self, resolution: int = 64):
        self.resolution = resolution
        self.buffer = [[0.0 for _ in range(resolution)] for _ in range(resolution)]

    def project(self, value: float, x: int, y: int):
        self.buffer[x % self.resolution][y % self.resolution] += value

    def normalize(self):
        max_val = max(max(row) for row in self.buffer) + 1e-6
        for i in range(self.resolution):
            for j in range(self.resolution):
                self.buffer[i][j] /= max_val

    def feedback(self) -> float:
        # global visual reinforcement signal
        total = sum(sum(row) for row in self.buffer)
        return math.tanh(total / (self.resolution ** 2))


# ─────────────────────────────────────────────────────────────
#  GRAPH ENGINE
# ─────────────────────────────────────────────────────────────

class SNVRGE:
    def __init__(self, num_nodes: int = 64):
        self.nodes = [NeuroNode(i) for i in range(num_nodes)]
        self._connect_graph()

        self.k2 = KSpace(2)
        self.k3 = KSpace(3)

        self.visual = VisualField()
        self.tick_count = 0

    def _connect_graph(self):
        for node in self.nodes:
            for _ in range(random.randint(2, 5)):
                target = random.choice(self.nodes)
                node.connect(target)

    def _hash_entropy(self) -> float:
        data = f"{self.tick_count}".encode()
        h = hashlib.sha256(data).digest()
        return int.from_bytes(h[:4], "big") / 2**32

    def step(self):
        entropy = self._hash_entropy()

        # variance diffusion
        self.k2.diffuse_variance(entropy * 0.05)
        self.k3.diffuse_variance(entropy * 0.02)

        spikes = []

        for node in self.nodes:
            # sample from spaces
            x = int(entropy * 1000) % 32
            y = int(node.potential * 1000) % 32
            z = int((entropy + node.potential) * 1000) % 32

            v2 = self.k2.sample((x, y))
            v3 = self.k3.sample((x, y, z))

            stimulus = (v2 + v3) * 0.5
            node.integrate(stimulus)

            s = node.spike()
            if s > 0:
                spikes.append((node.node_id, s))

        # propagate spikes
        for node_id, s in spikes:
            node = self.nodes[node_id]
            for conn in node.connections:
                conn.integrate(s * random.random())

        # visual projection
        for i, (nid, s) in enumerate(spikes):
            self.visual.project(s, nid, i)

        self.visual.normalize()
        feedback = self.visual.feedback()

        # reinforcement
        for node in self.nodes:
            node.potential += feedback * 0.1

        self.tick_count += 1

        return {
            "tick": self.tick_count,
            "entropy": entropy,
            "spikes": len(spikes),
            "feedback": feedback
        }


# ─────────────────────────────────────────────────────────────
#  DEMO LOOP
# ─────────────────────────────────────────────────────────────

def run():
    engine = SNVRGE()

    for _ in range(50):
        state = engine.step()

        print(
            f"[tick {state['tick']:03d}] "
            f"entropy={state['entropy']:.4f} "
            f"spikes={state['spikes']} "
            f"feedback={state['feedback']:.4f}"
        )


if __name__ == "__main__":
    run()

Тоже что-то сложное... тоже что-то "псевдо глубокое" и точно также - ничего не демонстрирует в сущности, как и размещённый на GitHub Ваше демо:

https://github.com/fsbioai/metabolicai/blob/main/metabolic_ai_demo.py

сохранять консистентную идентичность

Я знаком с таким проектом как Character.AI. Они там тоже стремятся к сохранению консистентной идентичности... За счёт настраивания LLM'ок, конечно, но просто ради интереса рекомендую взглянуть.

управлять приоритизацией памяти без RAG-костылей и проявлять асинхронную инициативу

Приоритизацией памяти без RAG-костылей? Вы имеете ввиду, что источники данных он будет выбирать как-то по другому? Самостоятельно? Так и пишите, зачем усложнять? Но ведь и современные агенты этим также занимаются... могут разные источники просто взять и обобщить в них информацию. А могут какие-то источники и убрать. И RAG-это не костыль, а интерфейс для настройки LLM-агенты под нужды бизнеса. Его ориентация на те задачи, которые в контексте их задач сейчас актуальны. И что за... "асинхронная инициатива"? Вы тут, наверное, имели ввиду управление ПК (или выполнение задач) независимо от человека? Так и с OpenClaw сейчас тоже самое доступно. Разверните агентов на своём ПК и дайте какую-нибудь задачу, они могут многое сделать независимо друг от друга (кто-то в терминале, кто-то в таблице, кто-то ещё где-нибудь).

8.5 - сильно новее демки

Ну... в демке указана версия 9.0:

Metabolic AI Runtime — Demo Script FSBio Lab | Enterprise Edition | v9.0

Что-то... не то.

успешно валидирована в закрытом бета-тестировании и находится на стадии патентования.

Я, конечно, желаю Вам удачи, но складывается ощущение, что результатов конкретных нет... и всё это пока на базе переусложнённой и логически бессвязной концепции, суть которой в безоговорочном стремлении создать "наш, российский, суверенный агент на базе сложнейшей концепции, которую простым смертным не понять". Я встречал подобное творчество от других людей... которые, буквально, помешались на ИИ (или что они под этим словом подразумевают). Ваше творчество мне чем-то это напоминает... Тот случай, когда хотел бы ошибаться :)

В целом, статья мне показалась интересной с точки зрения некоторых используемых идей... но вот остальное, всё очень странно. Вроде бы и вещи говорит автор умные, а вроде бы автор чрезмерно помешан на патриотизме к РФ и выражает ясную озабоченность её национальными интересами... Собственно, складывается ощущение, что вся цель данного проекта быть просто "100% российским национальным ИИ, построенном на отечественных (и ничего кроме отечественных) технологиях". Это странно выглядит.

Ознакомился также с группой в телеграмм и там ситуация точно такая же. "Отечественная наука", "сильный отечественный фундамент" и прочее в этом духе... Так то наука это не только про Россию, если что. Разные страны вносят разный вклад в общее человеческое дело, и российские учёные не единственные кто приносит пользу всему человечеству, в этом смысле. Странно делать акцент на "родину и ИИ", при этом активно используя достижения международного научного сообщества (Python, всё-таки, сделан не в РФ был, но используют его даже в Северной Корее). Это очень вредный фокус, как я считаю. Особенно в текущей внешней и внутренней политической обстановке.

Хотя, быть может это очередная попытка просто срубить бабла с государственного гранта. Если будет фактически доказанная лояльность текущему режиму и следование его интересам (народный ИИ, отечественные технологии, национализм, и прочее), то и грант получить можно.

Вообще, я нигде не увидел конкретного результата который можно было бы оценить. Так всё красиво расписано, но ничего кроме красиво оформленного псевдослучайного симулятора в 530 строчек Python кода на GitHub я не увидел. Сложная терминология, конечно, есть, но она лишь создаёт ощущение погружения в глубину, которое может и отсутствовать вовсе (к чему я и склоняюсь).

Акцент на "суверенном ИИ", очень много сложной и местами переусложнённой терминологии (которая, видимо, была использована с целью демонстрации "глубины погружения в тему") и псевдослучайный симулятор на GitHub, который демонстрирует... Непонятно что, честно говоря. Генерирует псевдореалистичные метрики на базе SHA-256 и всё... Ну и state machine тут ещё есть... может это просто очень урезанный интерфейс для привлечения внимания... но такое можно и с обычной LLM'кой галлюционирующей сделать (не в обиду авторам, просто может было бы лучше как-то раскрыть больше деталей, а не останавливаться на заготовке).

Ваша команда уже что-то реализовала практически? Просто интересно. Или это чисто теоретическая архитектура, которая сейчас патентуется и в будущем планируется её полноценная разработка? Пока что сложно судить что это за проект... Вроде и препринты есть (это предварительные версии исследований, а не законченные их версии), и код мало мальски на GitHub'е есть, но позиционирование... заставляет задуматься о проекте в несколько ином ключе.

вайб программирования

Это называется "вайб-кодинг" или "vibe coding", не стесняйтесь изначального наименования этого процесса :)

очень существенный минус, за все нужно платить

Да, и в один прекрасный момент LLM-компаниям ничего не будет стоить поднять цены за токены ещё выше, ещё выше и ещё выше... Мы живём в капитализме, думаю так примерно и будет. Чтобы "программировать" в будущем нужно будет платить много денег)

При этом не теряется контекст работы, и ты всегда остаешься на уровне контроля и планирования.

А зачем на этом уровне оставаться? LLM отлично заменяет человека в планировании и контроле уже сейчас, достаточно развернуть сеть агентов и задать им одну общую задачу. А они там и спланируют, и код напишут, и протестируют всё... только обратную связь остаётся им давать, чтобы скорректировать результат.

Последовательно с разной скоростью каждый новый слой работ у разработчика будут забирать LLM'ки. Сначала кодинг, потом программирование, затем архитектура, системный анализ, проектирование, планирование (на всех этапах), сопровождение, и так далее... А мы всё и дальше будем облегчать себе жизнь мыслями о том, что "разработчик всегда будет нужен на этапе <подставить то, что будет заменено LLM-кой в ближайшие годы>".

Программирование, разработка и в целом IT с участием людей в роли исполнителя всё быстрее и быстрее умирает в принципе... Как и многое другое что связано с интеллектуальной деятельностью и творчеством. Тут уж точно каждый сам за себя и без принципа "не можешь победить - возглавь" тут никак.

и можно идти пить чай или кофе

Руководству не выгодно будет таких сотрудников держать, которые могут спокойно идти чай пить, да кофе (напомню - мы в капитализме живём и меняться ничего не будет) в то время как LLM'ка будет решать задачи. Зачем нужна эта прослойка в виде человека в таком случае? Достаточно нанять менеджера с "Эй Ай" навыками и всё... Дать ему глоссарий разработчика, да и пущай работает.

Это результаты почти десятилетних исследований в области изучения языков программирования и ранних прототипов, которые с помощью LLM творчески переработаны менее чем за месяц.

Не обесценивайте результаты десятилетних исследований, ведь именно благодаря им (в том числе) существование больших языковых моделей в принципе сегодня возможно. Без таких исследований "вайб-кодинг" не мог бы существовать в принципе.

И теперь пусть кто угодно ругает ИИ, а я уже согласовал с генеральным директором необходимость его использования у нас на работе.

А выбор у Ваших коллег будет - использовать LLM или нет? А то как-то... странно. Вам, значит, это всё понравилось, всё хорошо, и надо всем остальным навязать такое же отношение что ли? Как будто тут выбора то и нет... использовать LLM или нет.

а у меня появляется время, чтобы заниматься действительно важными вещами.

Какими это, например? Своими личными проектами в рабочее время? Или распитием кофе, пока LLM'ка будет всю задачу за Вас выполнять? :)

Агент пятилетней давности это GPT-3, что ли? Вы точно хотите пользоваться пятилетними ллмками в области, где каждые полгода появляются новые подходы, которые позволяют делают нейронки уделывающие по эффективности, знаниям, etc все старые?

Я о 5-ти годах говорил в контексте того, что будет скачана модель (1 раз) и больше в течении 5-ти лет её обновлять никто не будет (ведь без Интернета ведь LLM-агенты работают и нормально?).

Спокойно, я думаю. Баш вообще никак не меняется, в js подобавляли прикольные фичи, но развивается он крайне медленно, питон плюс-минус обратно совместим

Скоро у Вас будет возможность оценить это на практике :)

Каким боком вайбкодеры к беспилотным автомобилям? Вайбкодеры могут поставить рой агентов и уйти пить кофе, тогда как автопилоту нужны минимальные и желательно предсказуемые задержки, которые интернет-подключение, очевидно, не даёт

А каким боком GPU к беспилотным автомобилям? Зачем им графические процессоры? Странный вопрос. Вы разбираетесь в том, о чём говорите?

Вайбкодеры - это люди, которые на постоянной основе копипастят программный код из LLM'ок, которые за них решают задачу. В большинстве случаев - решают их с помощью Интернета. Редко кто из них использует локально развёрнутые модели, в основном через API (Интернет для этого нужен, Интернет). В контексте рассуждения о "агенты работают без Интернета" этот пример (вайбкодеры) отлично вписывается.

Да и беспилотные автомобили сейчас в большинстве случаев к Интернету имеют доступ. Как им обновить прошивку удалённо, в случае неполадок? Или интегрировать API для навигации? Ситуация на улице меняется постоянно, поэтому какой-нибудь 2ГИС API на наших дорогах они будут использовать 100%.

Как видите, без Интернета многие вещи просто могут не работать...

Да, huggingface для локального запуска. Сначала скачиваешь модель, потом запускаешь локально сколько влезет. Как .fb2/.epub/.pdf просматриваются локально, скачанные фото, видео, etc просматриваются локально, как к любому другому файлу в ФС на вашем диске доступ происходит локально.

Абсурд. Скачивание как происходит? Посредством Интернета. А значит работать агент без его участия не может, потому что банально чтобы его запустить "локально" нужно его скачать и связаться по Интернету с платформой HuggingFace.

Не знаю почему вы считаете, что тот факт, что веса нужно предварительно скачать опровергает то, что запускаются и работают они потом локально.

Я не опровергаю этот факт. Можете передавать веса локально - через USB-накопители, только на них всё равно нужно загружать веса через Интернет. Без его прямого участия Вы бы даже не знали о существовании LLM.

Я говорю лишь о том, что без Интернета работа агентов ИИ под большим вопросом. Особенно если работа должна быть корректна. Вы с этим не согласны, останемся каждый при своём, ведь у Вас реальное есть время, желание и силы переносить через USB-накопители веса LLM'ок, которые Вы взяли у их создателей, завезли в Россию, и распространяете "локально" без какого либо участия Интернета... более того, туториалы по запуску прилагаете... Бред же, если это было бы действительно так))

Агентам не нужен интернет для работы

Каким образом агент, запущенный локально, сможет успешно выполнять какие-либо скрипты локально (в течении хотя бы 5-ти лет), не зная о нововведениях скриптового языка, который он использует для выполнения задач пользователя? Спойлер: никак. Будете загружать документацию и подгружать её агенту локально? Так она устареет. А без анализа форумов соответствующих технологий агент не сможет понять, какие есть угрозы безопасности при использовании того или иного подхода. Сомневаюсь, что кому-то выгодно использовать агентов с устаревшей информацией...

Кмк, gpu внутри авто это более вероятный сценарий

GPU нужно ещё правильно обслуживать. Сейчас даже большинство вайб-кодеров использует вычислительные ресурсы удалённых ЦОДов, а не разворачивают модели локально... Просто потому что мощные модели требуют значительных вычислительных ресурсов. Всё тут до банального просто...

Получится, см. ollama, huggingface и прочее для локального запуска моделей

HuggingFace - для локального запуска? А как Вы будите запускать LLM локально, без её предварительного скачивания через Интернет?)) Это довольно смешно :)

Смысла бороться с Интернетом нет. Очевидно ведь, что это одна из самых важных и полезных технологий, созданных человечеством.

Да, они исполнители определённой группы очень не хороших людей, выступающих заказчиками.

Лично к Вам у меня претензий никаких нет, Вы просто выложили тезисы на площадке. Вопросы есть к тому, кто вообще инициировал это бессмысленное совещание, пропитанное ложью.

В каком-то смысле Вы принесли дурную весть и пост заминусовали :)

Когда читатель видит что-то подобное... что "президент" "собирает" "совещание" "по развитию ИИ", у него просто может быть сначала ступор, а затем осознание и гнев. К Вам плохо не относятся, плохо относятся к тому, кто такое вообще мог сказать серьёзно, будучи тем, кто прилагает максимум усилий для ликвидации прав и свобод граждан РФ. Буквально вся деятельность этого индивида построена вокруг одной этой цели...

В общем, не относитесь серьёзно к оценке этого поста. Думаю люди просто выражают свой гнев от того, что сейчас происходит.

ИИ наряду с цифровыми платформами и беспилотниками формирует принципиально другой облик всей жизни России, в том числе обороны.

И наряду с Интернетом...

Нужно учитывать, что технологии ИИ стремительно развиваются, становятся все более сложными.

Как и сетевые технологии, на которых построен Интернет...

От способности РФ следовать стремительным технологическим изменениям зависят суверенитет и само существование России

Эта способность возможна только благодаря активному использованию Интернета... (именно само следование стремительным технологическим изменениям)

Агенты ИИ уже подходят к новому уровню самостоятельности, учатся взаимодействовать с людьми и могут имитировать человека.

Агенты ИИ работают с помощью... Интернета...

Уже в ближайшем будущем трудно будет определить, кто управляет автомобилем: человек или нейропилот.

Да, но управление будет происходить с помощью Интернета...

Только при наличии собственных языковых моделей ИИ можно гарантировать обороноспособность и безопасность.

О развитии языковых моделей мы узнаём из Интернета. Доступ к открытым исходным кодам моделей доступен благодаря Интернету. Уроки по Machine Learning размещены в Интернете. Разработка собственных LLM-моделей без Интернета крайне сложна (если вообще возможна).

Поручил правительству вместе с регионами сформировать национальный план внедрения ИИ.

Будет ли ИИ национальным? Национальный ИИ доступный по "белым спискам"? Будет ли это как с мессенджером Max? Всех конкурентов выведут с рынка, чтобы иметь устойчивый денежный поток (на всякие нужды) с обычных граждан?

Российская правовая база в ИИ должна не мешать, а стимулировать разработку передовых технологий.

Уже мешает. Очень сильно мешает. Более того - уничтожает и запрещает. Стимулируется сейчас только одна разработка - способов обхода блокировок и неадекватных решений принимаемых РКН и Минцифрой.

К 2030 году ИИ-продукты должны использоваться во всех областях в РФ, включая экономику и образование.

А ещё к 2030 году ожидается значительное поднятие утильсбора. А касательно ИИ-продуктов... без Интернета их использовать не получится.

Если Россия будет строить барьеры в сфере ИИ, то рискует отстать в этой области.

Не если, а уже строит барьеры и ограничения. Интернет ведь значительно ограничивают и скоро его просто не будет. Отставание неизбежно.

Полный цикл разработки и обучения языковых моделей должен осуществляться российскими компаниями.

Что для этого будут делать? Правильно - законодательно ограничивать использование всех зарубежных LLM и Интернета.

Механизмы образования и подготовки кадров нужно адаптировать к развитию ИИ.

Маловероятно. Цель внутренней политики РФ - ограничение развития ИИ, ограничение развития технологий. Выстраивание барьеров и полное ограничение в правах и свободах своих граждан. О каком развитии может идти речь? Только адаптация. Адаптация людей к государству, в котором они вынуждены жить.

P.S. Такие посты всегда вызывают порыв "справедливого гнева". Я крайне недоволен тем, что сейчас в нашей стране происходит.

Ну так, вперёд. Надеюсь в будущем увидеть Ваш никнейм в числе первых, кто создаст средство обхода всё новых и новых блокировок РКН на C++ доступный каждому, даже если у РКН будет хорошо получаться блокировать и детектить все VPN соединения.

Кстати, а есть ли у Вас уже подобные решения? Хотя бы средство для борьбы с DPI? В профиле никаких ссылок не нашёл на подобные решения...

 несчастные два байта

Вы бы сами попробовали найти эти "несчастные два байта", решить эту проблему и сформировать свой PR, прежде чем судить об этом в таком ключе. Что-то когда проблема была, Вы не спешили её править. Это ж так просто по Вашему, верно? Чего тогда сами не полезли в исходный код и менять какие-то там два байтика?

Все причастные к этим правкам молодцы, проделали хорошую работу. Одно дело говорить "а, это всё просто, какие-то два байтика", но совсем другое понять в чём дело, где и что нужно поменять, что будет после этих новых правок, как раскатать обновление на все приложения и у всех ли такая проблема повторяется. И самое главное - объяснить почему проблема заключалась в этих байтах, а не в других.

Вы так сможете? Чёт не слышал, чтобы Вы помогли поправить ситуацию с блокировками телеграмма...

В этих изменениях нет ничего незаурядного. Любой мало-мальски знакомый с программированием человек это может сделать.

Вы сами-то знакомы с программированием? Если да, то что Вам мешало исправить эту проблему в исходном коде телеграмма на C++, после глубокого анализа проблемы через исследование пакетов и их сравнение на низком уровне? Ничего незаурядного же... так, каждый справится. Верно?

Блокировки Telegram'а ведь и Вам наверное мешали. Чего ж Вы не полезли в исходный код поменять пару строчек? Это ведь так просто... конечно... какой-то там C++ и анализ пакетов, с выяснением того, в чём проблема и как её можно решить универсальным способом... не сложно ведь, да? Я уж молчу про сетевое программирование в целом как направление, которое нужно буквально понимать, чтобы принимать какие-то решения. Но для Вас достаточно и небольших знаний программирования... на уровне "переменная A равна переменной B", верно?

Представьте: вы кидаете ему .zip с проектом, а он выдаёт разбор по архитектуре, находит говнокод, утечки ключей, отсутствие индексов и с удовольствием сообщает, что вся ваша система — «детский сад на колхозе».

Эм... и зачем такое представлять? Сейчас можно спокойно сориентировать любую LLM-модель (желательно с специализацией по кодингу и архитектуре) на проект и она точно также сделает анализ, разбор, и укажет на косяки без токсичной характеристики твоих способностей и умений.

Вообще-то, LLM'ки славятся как раз тем, что как бы хорошо ты не был подкован в программировании - к тебе и твоему труду будет всегда адекватное, не токсичное, сбалансированное отношение. Может Вам норм, когда хамят и обесценивают Ваш труд - не осуждаю, у всех есть свои "тараканы в голове". Лично мне всегда приятно получать развёрнутые комментарии по тому или иному архитектурному решению без токсичной ерунды, которую может высказать какой-нибудь ЧСВ'ешный чел, считающий себя "самым умным" (в большинстве случаев - безосновательно). Такое может нравится, разве что, "лицам с мазохистскими наклонностями", но это моё мнение.

Не встречал ещё человека, которому нравится когда ему хамят.

Кто уже попробовал подобных агентов — поделитесь в комментариях, насколько они у вас живые и наглые. Интересно сравнить.

Зачем? Зачем кому-то делать... наглое хамло в виде LLM агентов? Просто потому что "прикольно"? Ну... тогда всё ок. Всё таки по этой причине люди много чего делают, LLM-модели не исключение.

Очень надеюсь, что модерация Хабра снесет эти бредни в ближайшее время, ибо статья абсолютный поток псевдотехнической чепухи, а автор даже не смотрел дальше двух строк на файл

статья является полнейшим введением в заблуждение

Вы, похоже, крайне заинтересованы, чтобы этот материал снесли? Какой-то, возможно, личный у этого есть интерес? Смотрю на существующий нейрослоп так остро не реагируете... видимо у Вас есть какое-то отношение к этому репозиторию, раз Вы его так защищаете :)

Как ручной тестировщик, я прокликал основные сценарии, но глаз уже замылился. Буду очень рад, если сообщество Хабра зайдет и устроит моему приложению жесткий краш-тест.

Вообще, подобного рода статьи часто несут в себе "самодискредитацию" и обесценивают любые Ваши трудозатраты, применяемые к данному проекту.. Зачем кому-то тратить время на "Ваш проект", когда любой желающий пользователь, не имеющий опыта в программировании и навыков разработки в принципе может сделать тоже самое, ещё может быть и лучше? Смысл устраивать Вашему приложению краш-тест, когда можно собрать своё "за выходные"? Вообще нет никакого смысла, как и обращать внимание на такой проект - можно тоже самое сделать по тому же алгоритму действий что и Вы, да ещё и сделать это лучше (особенно, если этим будет заниматься человек, который имеет опыт разработки).

Пишите любые найденные баги, критикуйте UI/UX (например, левый сайдбар для фильтров), ругайте вайбкодинг — для меня сейчас нет ничего ценнее вашей суровой обратной связи!

И обратную связь нет смысла давать в таком случае. Любой труд в рамках данного проекта обесценен, "раз я могу собрать такое сам за выходные". Зачем кому-то вообще его смотреть?... Ещё и время тратить на обратную связь...

1) Весь хабр был обманут. Был обманут настолько "технично", что никто даже не понял (по-началу) что это ИИ-мусор.

Да ну не весь. Кто-то понял сразу что это обман, кто-то (как я) немного позднее. Автор, скажем прямо, не сильно то и постарался, чтобы "зачистить следы обмана". Этот обман не был чем-то "крутым" или "техничным", многие поняли что это обман и чушь.

И то, что автор какое-то число пользователей площадки обманул - не делает его "крутым" (я чувствую в ваших комментариях к этому автору положительное отношение, в частности исходя из некоторых употребляемых предложений в контексте данной ситуации).

2) На основе такого "успеха" будут и другие писаки писать полу-ИИ статьи. Настолько похожие, что легко поверить что это писал человек.

Эта проблема сформировалась уже давно... как только стали массово использовать LLM. Может и ещё раньше... Сейчас кто-то для редактуры ИИ использует - считать ли это "полу-ИИ статьями" или нет?

Вы правда считаете, что просто "пожалуйста, не пишите нам статьи с помощью ИИ, а то они такие классные (3 из 3х в топ3), что мы все их лайкаем" будет рабочим вариантом? Или что конкретно вы предлагаете, я не нашел в вашем сообщении.

Я так не считаю и я ничего не предлагаю. Но я за то, чтобы к таким прецедентам обращать внимание и быть более объективным в оценке той или иной статьи, чтобы не продвигать таких обманщиков в топ площадки.

1) Либо сделать так, чтобы на хабре можно было поставить минус уже после того, как поставил плюс. тогда такие обманные статьи будут уходить обратно в дно. Но тут могут начаться и более сложные абузы (когда статья в целом хорошая и полезная, поэтому ей сначала ставят плюс, но после этого в комментариях автор начинает высказывать свою радикальную политическую позицию касательно жизни обезьянки в какой-нибудь Японии, и после этого минусят его и его статью, хотя сама статья то хорошая и полезная. кажется, с самого дня создания хабра был запрет на переголосование).

Согласен. Можно этот механизм доработать таким образом, чтобы переголосовать можно было бы до первого комментария. Проголосовал положительно? Ок, если написал комментарий - нельзя голос менять. Проголосовал отрицательно? Ок, если написал комментарий, то можешь поменять голос к статье. Такой механизм, как мне кажется, мог бы перестраховать автора от негативного голосования. А юзер мог прочитать комментарии и переголосовать заново (потому что статья, например, обманчива).

1
23 ...

Информация

В рейтинге
2 525-й
Откуда
Иркутск, Иркутская обл., Россия
Дата рождения
Зарегистрирован
Активность

Специализация

Software Engineer
Средний
C++
JavaScript
Python
React
Параллельное программирование
Windows API
Linux