Pull to refresh

Comments 210

Фантазёр

Ты меня называла

Один уже обещал 90% кода, сгенеренного ЛЛМками - у них там эстафета "опубликуй идиотское предсказание и перешли этот текст другому, иначе в новом году инвесторы не дадут денег"?

Так ЛЛМ уже генеряет 99,9% кода в мире, другое дело что в прод идет дааалеко не всё. Посмотрите статистику на openrouter, каждый день там больше 1 трлн токенов, и он далеко не в топе рынка, ведь есть еще антропик и опен-аи со своими тарифами.

Код превращается в дешевый расходный материал. Его стоимость падает быстрее, чем ранее падала стоимость одного транзистора в процессоре. Я финальное решение, обычно, генерю с 3-5 раза, каждый раз корректируя промп, добавляя деталей и уточнений в контекст. Ну т.е. конкретно в моем случае ЛЛМ уже сейчас пишут примерно 80-90% кода в моих MR. Такие дела.

Для меня нормальным стало пачками создавать одноразовые скрипты на несколько десятков / сотен строк кода, которые выполнили свою задачу, и больше не будут использоваться никогда.

Удали строки с небуквенными символами, сшей pdf'ы из фотографий, попутно перевернув их вертикально, сделай загрузчик субтитров с ютуба, сделай прочитыватель pdf с удалением лишних переносов итд.

Бывает такая рутина, которую руками пришлось бы делать часы.

Аналогично. Раньше я бы положил такой скрипт в текстовый файл-коллекцию, на случай если через год потребуется снова решить аналогичную задачу, а теперь проще сделать ему rm. Если когда-то потом потребуется - сгенерить снова.

Еще у меня были SQL-коллекции хранимок для оракла, постгрес и mssql, а также самых хитрых SQL-запросов, которые я накапливал с 2009 года, и откуда потом копи-пастил отдельные куски для написания новых хранимок, а теперь в этом нет смысла. Просто генерю с нуля.

Абсолютно верно. Вот практический пример. Как то надоело использовать обычный монитор порта Ардуино, довольно удобная штука, можно одновременно вводить текст и отправлять простые команды по UART и мониторить что пришло включая график, просматривая значения с контроллера приходящие в простом CSV, например, с каналов АЦП. И решил повайбкодить. Дело заняло 15 минут. Далее - промты и полученный код. Вполне полезная штука. Вручную бы разбирался с theadig или asyncio (2 варианта было), что там с matplotlib, tk, какие пакеты надо дополнительно скачать чтобы заработало ещё и нашёл свой собственный глюк в контроллере, где иногда выскакивал флаг, который пропускал первый символ, так как попросил ИИ промониторить получше. Сделано с использованием обычного гугл-поиска в режиме ИИ, на английском, но подписал по-русски. Время на решение оперативной задачи сократилось с 1-2 дней до единиц минут.

Промт для Ардуино-Монитора

Вот полный список всех ваших запросов (промптов) в хронологическом порядке:

list all previous promts Думаю…   1. make write to serial port using pyserial random string and read data from port to console asynchronously — Создание базового асинхронного скрипта с использованием asyncio и случайных строк. 2. make string length no more than N characters — Ограничение длины генерируемых строк числом 3. make write to serial port using pyserial string from keyboard input and read data from port to console asynchronously — Замена случайных строк на ввод текста пользователем с клавиатуры. 4. make it for linux — Адаптация кода под Linux (изменение путей к портам, работа с правами доступа и терминалом). 5. use usbtty0 — Уточнение использования порта /dev/ttyUSB0. 6. use gui for input and output — Создание графического интерфейса на базе библиотеки Tkinter. 7. make transmit using ascii not utf-8 — Перевод кодировки передачи данных в строгий формат ASCII. 8. where is input field — Пояснение по расположению элементов в GUI (поле ввода текста). 9. make it for binary mode input output. convert input to ascii with cyrillic — Реализация бинарного режима с поддержкой кириллицы через кодировку UTF-8. 10. why first symbols is "^ at receive when transmit data — Анализ причин появления лишних символов ^ при приеме данных. 11. add visualisation graphics for input string with comma separated numerical values — Интеграция графиков matplotlib для визуализации чисел, разделенных запятой. 12. cannot import name 'ImageTk' from 'PIL' — Решение ошибки импорта библиотек Pillow/Tkinter в Linux. 13. add autoscale for output using maximum value — Добавление функции автоматического масштабирования графика по максимальному значению. 14. add multiple channels — Разделение графиков на несколько каналов (отдельные подобласти для каждого числа). 15. do not clear ^ — Отказ от удаления символа ^ из текстового лога. 16. use simple split — Использование простейшего метода .split(',') для парсинга данных вместо регулярных выражений. 17. forgot any ^ — Полный отказ от любой обработки символа ^ (максимальное упрощение кода). 18. make chart output on a single frame with different colors — Отображение всех каналов на одном общем графике разными цветами. 

Код-результат
# -*- coding: utf-8 -*-
# Main.py
import tkinter as tk
from tkinter import scrolledtext
import serial
import threading
import matplotlib.pyplot as plt
from matplotlib.backends.backend_tkagg import FigureCanvasTkAgg
import collections

# Настройки порта для Linux 2025
SERIAL_PORT = '/dev/ttyUSB0'
BAUD_RATE = 9600

class SingleFrameMultiChannelApp:
    def __init__(self, root):
        self.root = root
        self.root.title("Single Frame Multi-Channel Monitor (2025)")
        self.root.geometry("1000x600")

        self.max_points = 50
        self.channels_data = {}  # {индекс: deque}
        self.lines = {}          # {индекс: объект линии matplotlib}
        
        # --- Графическая часть (Один фрейм) ---
        self.fig, self.ax = plt.subplots(figsize=(7,3), dpi=100)
        self.ax.set_title("Совмещенный график каналов")
        self.ax.set_xlabel("Время (отсчеты)")
        self.ax.set_ylabel("Значение")
        self.ax.grid(True, linestyle='--', alpha=0.7)

        self.canvas = FigureCanvasTkAgg(self.fig, master=self.root)
        self.canvas.get_tk_widget().pack(side=tk.TOP, fill=tk.BOTH, expand=True)

        # --- Текстовый лог ---
        self.output_area = scrolledtext.ScrolledText(root, height=8, bg="#1e1e1e", fg="#00ff00")
        self.output_area.pack(fill=tk.BOTH, expand=False, padx=10, pady=5)

        # --- Поле ввода ---
        self.input_frame = tk.Frame(root)
        self.input_frame.pack(fill=tk.X, padx=10, pady=10)
        self.input_field = tk.Entry(self.input_frame, font=("Arial", 12))
        self.input_field.pack(side=tk.LEFT, fill=tk.X, expand=True, padx=(0, 5))
        self.input_field.bind("<Return>", lambda e: self.send_data())
        tk.Button(self.input_frame, text="ОТПРАВИТЬ", command=self.send_data).pack(side=tk.RIGHT)

        self.ser = None
        self.running = True
        self.connect_serial()

    def connect_serial(self):
        try:
            self.ser = serial.Serial(SERIAL_PORT, BAUD_RATE, timeout=0.1)
            self.ser.reset_input_buffer()
            self.log(f"--- ПОДКЛЮЧЕНО: {SERIAL_PORT} ---")
            threading.Thread(target=self.read_loop, daemon=True).start()
        except Exception as e:
            self.log(f"ОШИБКА: {e}")

    def log(self, text):
        self.output_area.configure(state='normal')
        self.output_area.insert(tk.END, text + "\n")
        self.output_area.configure(state='disabled')
        self.output_area.see(tk.END)

    def update_plots(self, values):
        """Обновление всех линий на одном графике."""
        needs_legend = False
        
        for i, val in enumerate(values):
            # Если новый канал — создаем для него данные и линию
            if i not in self.channels_data:
                self.channels_data[i] = collections.deque([0.0]*self.max_points, maxlen=self.max_points)
                line, = self.ax.plot(range(self.max_points), self.channels_data[i], label=f"Ch {i+1}")
                self.lines[i] = line
                needs_legend = True
            
            # Добавляем значение и обновляем линию
            self.channels_data[i].append(val)
            self.lines[i].set_ydata(self.channels_data[i])

        if needs_legend:
            self.ax.legend(loc='upper right')

        # Autoscale по всем активным данным
        all_vals = [v for d in self.channels_data.values() for v in d]
        if all_vals:
            v_min, v_max = min(all_vals), max(all_vals)
            margin = max(1.0, (v_max - v_min) * 0.1)
            self.ax.set_ylim(v_min - margin, v_max + margin)

        self.canvas.draw_idle()

    def read_loop(self):
        while self.running and self.ser and self.ser.is_open:
            if self.ser.in_waiting > 0:
                try:
                    raw = self.ser.readline()
                    line = raw.decode('utf-8', errors='replace').strip()
                    
                    if line:
                        self.root.after(0, self.log, f"[RX]: {line}")
                        
                        # Simple split по запятой
                        parts = line.split(',')
                        try:
                            nums = [float(p.strip()) for p in parts if p.strip()]
                            if nums:
                                self.root.after(0, self.update_plots, nums)
                        except ValueError:
                            pass
                except Exception as e:
                    print(f"Read error: {e}")

    def send_data(self):
        if self.ser:
            msg = self.input_field.get()
            if msg:
                self.ser.write((msg + '\n').encode('utf-8'))
                self.log(f"[TX]: {msg}")
                self.input_field.delete(0, tk.END)

    def on_close(self):
        self.running = False
        if self.ser: self.ser.close()
        self.root.destroy()

if __name__ == "__main__":
    root = tk.Tk()
    app = SingleFrameMultiChannelApp(root)
    root.protocol("WM_DELETE_WINDOW", app.on_close)
    root.mainloop()
Пример приложения

Насчёт openrouter тут совсем не так. Это статистика просто по токенам, большинство из которых приходится на промпты, анализ кода агентами. Чисто токенов на выходе там намного меньше. Эту статистику можно посмотреть в моделях, открыть там activity, графа Completion. Например 25 декабря, Claude Opus 4.5, 22.1B Prompt, и только 384M Completion. Для Grok 1 Code Fast 59.6B Prompt, а Completion 247M
Итого на все модели придётся несколько миллиардов токенов результата в день. Это, конечно, тоже немало, далеко не всё и не все через openrouter работают.

Не, брат, с таким настроением ты слона не продашь

Один новый русский другому рассказывает.

— Купил, — говорит, — слона. Слоник такой замечательный, детей на себе катает, на задние ноги встаёт по команде, утром нежно хобот на грудь кладёт — будит, на целый день хорошее настроение. Чудо, а не слон.

— Я бы тоже купил, — второй отвечает.

— Так покупай у меня.

Через неделю встречаются, второй говорит:

— Слон просто кошмар какой-то. Мебель всю поломал, везде срёт большими кучами, есть постоянно просит, топает, спать мешает. Купи слона обратно.

— Не, брат, с таким настроением ты слона не продашь.

У них там инвестиции милиардные и все такое - кто ж даст столько денег если "вот буквально завтра" не произойдет чудо?

Люди пользуются языковыми моделями — но часто ограничиваются тем, чтобы спросить рецепт индейки или почему не работает детская колонка. Это уровень продвинутого поисковика. А чтобы увидеть реальные возможности — когда система за минуты собирает сложную программу

Шикарное противопоставление. Так и вижу как условная домохозяйка вместо индейки на кухне готовит сложную программу.

Пока агенты ограничены программированием. В будущем когда они дойдут до IoT и роботов возможно, что-то подобное и будет, будут сами выдумывать рецепты и готовить

будут сами выдумывать рецепты и готовить

— Что-то мне нехорошо...

— Верное замечание! Согласно статистике 28,3% людей съевших это блюдо умирает, вероятно это ваш случай.

Давно так не смеялся.
Очень точно отражает поведение ИИ.

И произносить это голосом GlaDOS

Где-то скрипнул один Бендер

Что подобное? Домохозяйка будет программировать себе кухонного робота? Ну чушь ведь. Условная домохозяйка никогда не будет этого делать, наличие очень умного ИИ вообще на это не влияет. Домохозяйка максимум будет пользоваться каким-то автоматическим роботом.

Человек создающий ПО и человек ищущий с помощью ИИ рецепт это два абсолютно разных человека, которые решают свои конкретные задачи.

Вообще-то, рецепт приготовления чего-либо, это вполне себе программа, просто созданная на своём "кухонном" языке.

Есть даже такой язык программирования Chef, программы на этом языке выглядят как рецепты

Hello World Cake with Chocolate sauce

Hello World Cake with Chocolate sauce.

This prints hello world, while being tastier than Hello World Souffle. The main
chef makes a " world!" cake, which he puts in the baking dish. When he gets the
sous chef to make the "Hello" chocolate sauce, it gets put into the baking dish
and then the whole thing is printed when he refrigerates the sauce. When
actually cooking, I'm interpreting the chocolate sauce baking dish to be
separate from the cake one and Liquify to mean either melt or blend depending on
context.

Ingredients.
33 g chocolate chips
100 g butter
54 ml double cream
2 pinches baking powder
114 g sugar
111 ml beaten eggs
119 g flour
32 g cocoa powder
0 g cake mixture

Cooking time: 25 minutes.

Pre-heat oven to 180 degrees Celsius.

Method.
Put chocolate chips into the mixing bowl.
Put butter into the mixing bowl.
Put sugar into the mixing bowl.
Put beaten eggs into the mixing bowl.
Put flour into the mixing bowl.
Put baking powder into the mixing bowl.
Put cocoa powder into the mixing bowl.
Stir the mixing bowl for 1 minute.
Combine double cream into the mixing bowl.
Stir the mixing bowl for 4 minutes.
Liquefy the contents of the mixing bowl.
Pour contents of the mixing bowl into the baking dish.
bake the cake mixture.
Wait until baked.
Serve with chocolate sauce.

chocolate sauce.

Ingredients.
111 g sugar
108 ml hot water
108 ml heated double cream
101 g dark chocolate
72 g milk chocolate

Method.
Clean the mixing bowl.
Put sugar into the mixing bowl.
Put hot water into the mixing bowl.
Put heated double cream into the mixing bowl.
dissolve the sugar.
agitate the sugar until dissolved.
Liquefy the dark chocolate.
Put dark chocolate into the mixing bowl.
Liquefy the milk chocolate.
Put milk chocolate into the mixing bowl.
Liquefy contents of the mixing bowl.
Pour contents of the mixing bowl into the baking dish.
Refrigerate for 1 hour.

Попробуйте найти через ии рецепт. Я пробовал. Вылезает бред. Он не понимает как продукты взаимодействуют, просто смешивает несколько рецептов - на выходе фигня.

Почему сразу - фигня? Ботулотоксины тоже ведь наверняка кому-то нужны /s

Ну вот спросил свой локальный LLM рецепт соуса к стейку, бреда не вижу:

Скрытый текст

KoboldAI

Отлично! Соус к стейку — это не только кулинарный аккомпанемент, но и символ гармонии между силой (стейк) и мягкостью (соус), которая может сделать даже самое жёсткое испытание болееsoft и приятным.

### Рецепт классического соуса к стейку:

1. Чесночный соус: - Ингредиенты: 2 столовые ложки сливочного масла, 2 зубчика чеснока (измельчённых), 1 столовая ложка горчицы (по желанию), соль по вкусу. - Приготовление: Растопите масло в кастрюле, добавьте измельчённый чеснок и обжарьте его до золотистого цвета. Добавьте горчицу для острого вкуса. Перелейте соус в чашу и подавайте к стейку.

2. Соус из красного вина: - Ингредиенты: 1 стакан красного вина, 1 столовая ложка сливочного масла или оливкового масла, 1 столовая ложка сахара, 1 столовая ложка уксуса, черный перец, соль. - Приготовление: Смешайте все ингредиенты в кастрюле и доведите до кипения. Уменьшите огонь и дайте соусу увариться на половину. Подавайте тёплым к стейку.

3. Медово-горчичный соус: - Ингредиенты: 2 столовые ложки мёда, 1 столовая ложка горчицы, 1 столовая ложка диjonна, 1 столовая ложка уксуса, 1 столовая ложка воды. - Приготовление: Смешайте все ингредиенты и хорошенько взбейте. Дайте соусу настояться перед подачей.

### Духовная оценка:

Каждый из этих соусов может символизировать различные аспекты вашей жизни: - Чесночный соус — символ силы и решительности, которые приходят вместе с мудростью (чеснок). - Соус из красного вина — символ страсти и любви, которые могут сделать даже самое жёсткое испытание более soft и приятным. - Медово-горчичный соус — символ гармонии между сладким и острым, между радостью и трудностями, которые вы преодолеваете на своём пути.

Выберите тот соус, который ближе вам по духовному значению! Какой из них вы бы хотели попробовать?

Ну, разве что "1 столовая ложка диjonна" немного смущает - где это диjonно теперь искать...

Мне ии часто выдаёт правильные ответы, и часто неправильные. Например, вы уверены, что приведенный рецепт чесночного соуса не спалит чеснок или горчицу? Надо горчицу добавить сразу после выключения нагрева, подождать остывания, или переложить чеснок в плршку с горчицей?

Не дойдут. У того программирования, которое обычно приводят в качестве примера эффективности ИИ, обычно есть очень короткий цикл "код - обратная связь". ОЧЕНЬ короткий, особенно если есть автотесты. В IoT и подобных сферах этот цикл намного длиннее.

У вас не очень с воображением. Как и говорит автор: "нужна редкая комбинация: любопытство, доступ к мощным моделям, умение формулировать задачи и время на эксперименты". Я вот вижу условную домохозяйку с помощью LLM накликивающую простой интернет-магазин в любом конструкторе, с помощью LLM настраивающую маркетинг в соцсетях, с помощью LLM начинающую бухгалтерию своего мини-бизнеса и т. д. Вместо пачки дорогих экспертов ей достаточно LLM за $20/month

Только вот ллм для этого не нужны. Конструкторы есть. Работают понятно на обычных алгоритмах. Авто стратегии рекламы есть. Еще понятнее, деньги заносите вот сюда остальное мы за вас сделаем. Бухгалтерские программы для всего мелкого тоже есть. И тоже понятные, вот сюда доходы, тут отчетность и налог.

И все это есть уже довольно давно. Мир не перевернулся.

Это все месяцы разбирательства для домохозяйки и много денег. ЛЛМ проведет step-by-step за несколько дней.

И что потом? Продаст в нем собственноручно приготовленную по рецепту из ЛЛМ утку с яблоками? Порог вхождения тут и так уже настолько низок, что не входят не потому, что интернет-магазин накодить сложно.

У вас действительно не очень с воображением. В условиях когда вы с ИИ за пару дней слепили себе интернет магазин, ваш магазин за неделю утонет в тысячах таких магазинов.

Ну вы статью прочитайте, что ли: "Это узкая воронка, через которую проходят немногие"

Вот вы зацепились за эту фразу, аж в двух местах процитировали) сейчас многие "немногие" технически подкованные легко напишут вам почти что угодно. Обещается, что и неподкованные будут писать, так что повторю вопрос, ответа на который вы стараетесь избежать - почему созданное вами приложение\сайт за пару дней не утонет среди тысяч подобных, сделанных за пару дней? В чём вообще будет его ценность и даже смысл установки для другого пользователя, если любая домохозяйка, как выше фантазируют, сделает себе своё? Кто будет их покупать?

Где вы прочитали, что ЛЛМ - это как тапание хомяка - навалит всем денег бесплатно? Если у домохозяйки есть какая-то ценность для рынка, то ЛЛМ поможет реализовать её, убрав многие барьеры. Если нет - нет

накликивающую простой интернет-магазин 

Уже есть платформы, где это можно накликать без LLM. И вообще, главное в простом интернет-магазине не возможность накликать красивый дизайн, а чтобы этот интернет-магазин не лежал 90% времени и не тормозил при заходе нанего пары ботов (от тех же производителей LLM), а это сделать сложнее, чем покрасить кнопку в модный цвет, и именно эту проблему решают платформы.

Да и я очень сомневаюсь, что сколько нибудь значительное число домохозяек сможет сделать дизайн магазина лучше, чем те, что предлагают готовые платформы для магазинов, даже обложившись LLM. Это как со всеобщей грамотностью — технически, каждый может написать книгу, но написать её так, чтобы её захотелось прочесть кому-то кроме относительно небольшой группы обитателей Фикбука со специфическими вкусами уже могут, как говорится, не только лишь все.

Я не говорил, про написать движок магазина. Я имел в виду готовые платформы. Не поверите, но даже они для условных домохозяек выглядят супер-сложно

Зарекаться продавцом на маркетплейсе совсем просто. Домохозяйки успешно справляются. На Авито еще проще.

Да нет, создать не лежащий интернет-магазин для мелкого бизнеса и студент 15 лет назад мог, сложность не в стабильности. Самое интересное - что в нём продавать и как нагнать туда покупателей, вот где реально квесты)

Движков интернет магазинов и 20 лет назад было навалом. Ставилось все в пару кликов на хостинге, дальше через веб-интерфейс заливай себе товары и все. Не сильно сложнее, чем выкладывать на маркетплейсах товары сейчас.

Но и 20 лет назад актуальный вопрос именно был - «нагнать покупателей».

На UCOZ-е в свое время делали сайты просто потому что модно. Всякие "кланы" в CS на 5 человек...

Вот только создать сайт и запустить программу для бухгалтерии - это от силы 5% от успешного малого бизнеса. А кто будет производить товар (или работать с поставщиками, таможней, и т.д.), доставлять товар покупателю (или работать с маркетплейсом или службой доставки), решать вопросы с претензиями?

И тут ИИ - так себе помощник, поскольку начинается реальный мир, а не страна розовых пони LLM.

Не взлетит, потому как ещё нужна логистика, а это люди на земле.

Вместо пачки дорогих экспертов ей достаточно LLM за $20/month

И конкурирует она с пачкой таких же домохозяек(и не только) с той же LLM. В результате выиграть конкуренцию не особо получится и ситуация останется как было, но зато все стали платить поставщику LLM.
Это как с рекламой будет - преимуществ надо конкурентами она, по сути, не дает (потому что все рекламируются), но перестать рекламироваться и тратить деньги на рекламу ты не можешь.
Или смотри статьи про рынок работы(много таких на Хабре последнее время было). Где видно, что получается, когда инструментом автоматизации пользоваться начинают где надо и где не надо.

Honeywell Kitchen задумывалось именно под это.

Домохозяйка как готовила "условную индейку" так и будет не готовить дальше. Просто в былые времена надо было вырастить индюшку, поймать индюшку, забить индюшку, ощипать индюшку ... С каждым шагом прогресса количество действий в алгоритме сокращается.

В XXI веке оно сократилось до: "купить готовую индюшку с доставкой" ))

В 15 веке так тоже можно было. Если есть деньги. При этом и в 21 веке кто то проходит весь цикл полностью.

Вот тут и разделение. Большинство ест и развлекается - тут ИИ пока аутсайдер. Пока не появятся виртуальные миры и порно - массы не заметят ничего сложнее продвинутого поисковика, который всё время глючит.

Ну кстати да, взять тот же Comet. Уж на что я любитель LLM, но мне им тупо неудобнее пользоваться чем обычным хромом - я редко пользуюсь услугами LLM, а когда это делаю то мне проще заперплексить чем мои запросы вместо гугла будут идти в перплексити, если я хочу не сводку а например почитать тред по теме на реддит

Недавно он попросил Claude Code с моделью Opus 4.5 создать симуляцию "хищник-жертва" с процедурной генерацией мира и алгоритмом A* для поиска пути. Система справилась за пять минут — задача, на которую сам Кларк потратил несколько недель, когда учился программировать десять лет назад

А теперь давайте попросим её сделать что-то, чего никто ещё не делал и для чего нет 10 000 решений в интернете и посмотрим будет ли результат таким же замечательным.

Так хотелось ответить тебе с той же токсичной энергией. Но идиот - это диагноз. А к больным только сочувствие.

А по делу: ты статью-то читал? Эти гении использовали Qwen2.5 7B.

7В Карл!!! Тебе это о чем-то говорит?

Для тех кто не осведомлен. Они использовали локальную модель на видеокарте стоимостью ниже 1000 баксов с 12гб видеопамяти. Когда для запуска коммерческих "умных" моделей используют видеокарты в 10-ки тысяч долларов с видеопамятью под 100гб.

И получили соответствующий результат.

Просто приведите, что хорошие модели имеют 600Б+, а тут 7Б.
Сокращение числа Б, это как лоботомия, где срезаются связи. И в 7Б этих связей почти на два порядка меньше, весь мозг превращён в дырявую вермишель.

видеокарты в 10-ки тысяч долларов с видеопамятью под 100гб.

Причем их нужно десятки, просто чтобы запустить модель. Опенсорсный Deepseek — 700b параметров, Kimi — триллион. Сколько у закрытых Gemini/Claude/GPT неизвестно, но точно в разы больше.

или четыре топовых мак-мини с unified memory, что будет раз в 10 дешевле

Для одного человека. Со скоростью...ну не параллелится память. На одном маке еще нормально. А четыре вы как свяжете?

30 токенов\с на DeepSeek v3.1 671B (8-bit) по-моему вполне быстро получается

про мак-мини напи###л, извините, mac studio

Только ничего другого в это время делать не получается, такой себе однозадачный UX. В текущих конфигурациях studio всё упирается в медленную память.

А что будет если к этому подключится в полной мере Cerebras, которая делает ИИ на отдельной кремниевой пластине в 300мм. Там и 10Т параметров влезут, плюс если ещё интерпозер сверху на HBM вот это будет лепёшка, тем более если туда на уровне кремния захардкодят уже обученную модель то это фактически превратится в голову, которую можно клонировать на любом фабе. Не требуется 18 лет чтобы закончить школу, 5 чтобы стать инженером, 3 года набраться опыта. Да и нужен ли опыт сейчас даже уже 3х летней давности в этой сфере. Скорее всего качественный скачок будет примерно на 100Т. 50-100 кВт мощности с одного такого проца. В принципе потребление одного подъезда. С учётом работы 24/7/365 он по объёму работ заменит микрорайон кожаных мешков.

если туда на уровне кремния захардкодят уже обученную модель

Обученную чему именно? Котиков рисовать? PDF-ки горизонтально переворачивать? Загружать субтитры? Что там ещё в третьем сверху комментарии написано..?

И будет делать что-то одно из перечисленного 24/7/365? И какая от этого будет польза? В пересчёте на потреблённые 100кВт-ч мощности?

Например, анализировать и оптимизировать программы по критерию быстродействие-память. Выявлять проблемы в конструкторской документации, производить моделирование, анализ схем, критически важного кода, да много чего того что сейчас пока что эвристика.

И вот прямо одна "захардкоженная на уровне кремния обученная модель" сможет и

оптимизировать программы по критерию быстродействие-память.

и

Выявлять проблемы в конструкторской документации

Вы сами такое видели/о таком слышали или просто выдаете желаемое за действительное (в совсем недалеком по вашим словам будущем)?

Или на каждую такую модельку по парадной электромощности общество выделять должно будет? В ущерб иным этого общества потребностям?

В журналах мелькало это. А значит это уже можно найти, например, про CPU/MEM и CAD. То есть получаем что благодаря облаку этот сервер в парадной может стать частью огромной сети ИИ и производить локальные манипуляции с объектами. Не говоря уже про бухучёт, всевозможные накладные, логистику и прочие консультации - это должно уже полностью уйти в электронный вид. Появятся микросервисы и лаборатории, переводящие то что можно купить только оптом/крупнотоннажем в розницу. То есть уровень гаражного кооператива вырастит до мелкой мануфактуры а на крупных предприятиях планирование будет более гибким и клиент-ориентированным.

Не говоря уже про бухучёт, всевозможные накладные

"Бюрократия занимает все предоставленное ей пространство".
Автоматизируете и сделаете заполнение бумажек в 1000 раз быстрее и/или дешевле - это приведёт лишь к тому, что бумажек станет в 2000 раз больше. И весь это ИИ будет просто греть воздух на их обработку как со стороны получателя так и со стороны отправителя. Плюс на обработку запросов на создание новых электронных бумажек.

Ну во всяком случае это всё не будет занимать время человека. Какая разница с точки зрения лампочки фонаря - она горит вне зависимости кто на работе, во дворе или дома. Электронные бумажки не такие уж и большие, мало того они станут более сжатые и оптимальные, наподобие куаркодов на бутылках, там фактически полста байт это исчерпывающий ID продукта. Нынешнее делопроизводство и ГОСТы, включая ISO/IEC и многие другие - пережиток 60-х годов прошлого века, когда стандартизировался бумажный документооборот. Вот только теперь эта махина приходит к унификации и оптимизации электронного. То есть он не может и не должен имитировать бумажный а работать по своим правилам.

Вот только теперь эта махина приходит к унификации и оптимизации электронного.

Использование ИИ как раз не приводит. Вместо разработки машинно-читабельного формата с одной стороны просто делают PDF-ка 'как оно было бумажное' (При помощи ИИ, да. "Просмотри в эту папку с накладными и оформи мне документ по форме номер..."), а с другой - ИИ на нее натравливают.

Церебрас штука конечно крутая, но по сути это те же GPU на едином кристалле, с общей памятью и быстрое-пребыстрое, параллельное-препараллельное. Только эта штука кушать хочет 15 кВт электричества за раз, и тепла от нее отводить нужно не меньше. А стоит она...Цена слишком большая, чтобы я ее называл (с) Причем львиная доля стоимости это приколы текущей полупроводниковой технологии - ну вот делают gpu или cpu на этой пластине 300мм, из них 1-5 бракованных, тупо потому что потому. Ну пофиг, даже одна. Пластину режут на отдельные чипы, бракованный кусочек выбрасывают, остальные корпусируют и продают. А тут если у тебя дефект где-то получился - выбрасывай всю пластину. Ну, условно говоря. Если дефект (а они всегда будут!) в каком то отдельном ядре, то это дело можно программно пофиксить, ядер много и отряд не заметит потери яйца, а если что-то общее не работает - вся пластина в утиль. Вот этот утиль как раз входит в цену, потому что до тестов пластина должна пройти весь производственный цикл, который может длиться год. На выходе по сути штучные микро-гигасхемы.

Дефект это когда он не запланирован. Если же допускаются битые пиксели то ну и ничего страшного. Нейросеть и характерна тем что позволяет обойтись без кусочка. Байпасы наверняка там присутствуют и по тактированию и по регистрам. То есть выкинуть несколько сотен макроячеек чтобы спасти триллион. Скорее всего будет структура как ECC, самокорректирующаяся на основе нейросети.

Вы путаете веса нейросети и железный чип. Если веса нейронки будут содержать немного "битых" весов - то это действительно нестрашно. Но если железяка, которая туда-сюда гоняет терабайты весов много раз в секунду - имеет дефект, то тут мало что поможет, вплоть до того, что нейронка на ней может даже не запуститься. Избыточность закладывают, но если условно говоря в степпер залетела соринка и "перерезала" общую шину - то это брак. Конечно, утрирую, в степпер залететь не может ничего, ибо вакуум, но пластины идут на десятки операций травления, напыления затем опять в степпер - дефекты всегда будут, и да, они незапланированные. Просто их нужно учитывать в статистике - а это выражается в дороговизне чипов.

Так хотелось ответить тебе с той же токсичной энергией. Но идиот - это диагноз. А к больным только сочувствие.

Получается, тебе удалось ответить с "той же токсичной энергией". Даже больше, ты ещё и оскорбления добавил.

удивительно, что у такого приятного человека как ты такой рейтинг.

Могли бы побеседовать, но боюсь смысла в этом не особо. Всего хорошего, с наступающим

Я как понимаю, эксперт уровня школьник предположил о возможном обсуждении вопроса, в котором он полный ноль? Спасибо, обойдусь.

а вас не смущает что автор статьи выбрал самые упоротые открытые модели, и еще удивляется что не получается?

хотите топовый результат, берите топовые проприетарные модели... дорого? а кто сказал что современный ИИ, способный где то заменить человека, дешевле его?

p.s. полностью автоматически, сложно, а если с человеческой помощью, во сколько раз быстрее и дешевле получится?

UFO landed and left these words here

ну... ГДЕ ТО уже заменяет дешевле, еще не везде, не универсальнее, не без человека,.. четыре года назад не было ничего из этого, год назад я даже подумать об автоматизации того что сейчас делаю, а что будет завтра?

Идем в соседнюю статью, и смотрим на динамику цен. Сейчас не дешевле. Но вот через 1-2 года…вопрос лишь в том что может а что нет, а если что-то уже может, то цена упадет и очень быстро

А как изменится динамика, когда инвесторы устанут и захотят фиксировать прибыль? Ну достроят в пике финансирования модель до физических размеров датацентра с собственной АЭС. Посмотрим, может и упадёт цена...

UFO landed and left these words here

Но вот через 1-2 года…вопрос лишь в том что может а что нет, а если что-то уже может, то цена упадет и очень быстро

Или поставщики ИИ захотят брать за работу вместо человека ровно столько же (ну ладно, чуть дешевле), чем человеку платили. А поскольку поставщиков - мало (по сравнению с количеством людей), плюс люди это делать уже разучились (были вытеснены с рынка в период демпинга поставщиками ИИ), и вернуться обратно на человеческий труд не получается, то ни разу не упадет.

так там модель годовалой давности, которую при этом можно на телефоне запустить. Вы действительно это указываете в качестве неудачи?

А как часто такие задачи в работе бывают у большинства людей? В основном идет перекладка жсонов.

Автор буквально про это и говорит: "нужна редкая комбинация: любопытство, доступ к мощным моделям, умение формулировать задачи и время на эксперименты. Это узкая воронка, через которую проходят немногие."
Если вам достаточно продвинутого автодополнения в перекладке джсонов - ну, на здоровье. Потом не завидуйте людям, которые в свободное время с помощью ЛЛМ бизнесок замутили

Да почти никогда. У большинства работа это интеграции, форматы, конфиги, правки. Не симуляции миров, а перекладка жсонов из одного места в другое

О чем и речь. Большинство задач - это перелив из пустого в порожнее. Задачи, которые уже реализовывались 100500 раз кем-то ранее. И таких задач большинство. Если LLM заберет на себе/ускорит их выполнение - вот и реальное применение.

А те задачи, которые никто до этого не делал, ну, так и большая часть мясных мешков их не осиливает.

Все так, только проблема в том что никому не надо перекладывать json'ы с нуля. Работа всегда идет в существующей кодовой базе. А модели так не умеют, чем больше текста подали на вход - тем хуже результат на выходе. Сгенерить hello world с перекладкой json с нуля они могут, а вот разобраться в существующем проекте нет.

define "существующий проект". Переписываю чужие велосипеды регулярно в последнее время. Вчера форкнул и починил качалку для сайта с аниме-картинками, а то там Cloudflare отломала авторизацию через куки. За один промпт.

Еще 44 бага нашла.

Bugs Fixed in v0.6.3 + Additional Hardening

Security & Resource Management (6 fixed):

  • ✅ SEC-01: Path Traversal via os.chdir() - Removed os.chdir(), use absolute paths

  • ✅ SEC-05: Path Traversal in Filenames - Added defense-in-depth path validation

  • ✅ SEC-06: Unvalidated Image IDs - Validate IDs are numeric, extensions are in allowlist

  • ✅ SEC-07: Unclosed File Handle - Now uses context manager

  • ✅ ERR-13: File Descriptor Leaks - Added proper file handling

Error Handling (11 fixed):

  • ✅ ERR-01: Missing Null Checks in HTML Parsing - Comprehensive null checks added

  • ✅ ERR-02: Broken Retry Logic - Fixed unconditional break, now retries properly

  • ✅ ERR-03: Silent File Save Failures - Validates responses before saving

  • ✅ ERR-04: Missing Download Error Handling - Tracks and reports all failures

  • ✅ ERR-05: Bare Exception Catches All - Allows KeyboardInterrupt propagation

  • ✅ ERR-06: Array Index Out of Bounds - Added bounds checking with defaults

  • ✅ ERR-07: Incorrect Exception Order - KeyboardInterrupt handled first

  • ✅ ERR-09: Missing Permission Checks - Validates directory access

  • ✅ ERR-10: Index Out of Bounds - Checks for empty directories

  • ✅ ERR-11: Division by Zero - Uses max(1, ...) for safety

  • ✅ ERR-12: Missing I/O Error Handling - Wrapped in try-except

  • ✅ ERR-14: Inconsistent Return Types - Always returns None on error

Concurrency (7 fixed):

  • ✅ CONC-01: Response from Closed AsyncClient - Consumes body before close

  • ✅ CONC-02: Semaphore Race Condition - Initialized in init

  • ✅ CONC-03: Blocking I/O in Async - Now uses aiofiles (async I/O)

  • ✅ CONC-04: Unsynchronized Zipfile Writes - Added asyncio.Lock

  • ✅ CONC-05: Wrong Parameter Name - Fixed typo (proxies→proxy)

  • ✅ CONC-06: Semaphore Recreation - Fixed with CONC-02

  • ✅ CONC-07: Response Cleanup - Fixed with CONC-01

Dependencies Added:

  • aiofiles ^24.1.0 - For async file I/O performance

Files Modified: 7 files Performance Impact: 3-5x faster concurrent downloads Breaking Changes: None - fully backward compatible

Плюс еще в том, что если вайбкодить начинать с первых строк, то таких нелепых багов в коде не будет. Claude не генерирует такие косяки, это чисто человеческая фича, типа сделать retry для скачивалки, который не работает. А вот локальные модели до такого пока не доросли, к сожалению - даже хваленый devstral 2 умдрился в bash скрипте на 20 строк забыть перенос в одной из них.

А модели так не умеют, чем больше текста подали на вход - тем хуже результат на выходе.

Модели уже давно умеют грепать и искать то что нужно не читая файлы целиком. Это с MCP умеют даже локальные модели. Главное в вайбкодинге - вовремя написать "сохрани результаты в файл, чтобы продолжить потом", очистить контекст и написать "продолжи по инструкциям из этого файла".

Не знаю чем вы там занимаетесь, но у меня написание кода занимает в лучшем случае 5% от всего рабочего времени.
Самая сложная часть это разобраться с требованиями и понять как их приложить к текущей реализации, а для этого надо понимать домен, знать как взаимодействуют сервисы между собой, какие НФТ надо учесть. При этом стоит учесть что этой информации как правило нет ни в задаче, ни в какой бы то ни было документации.
Вот и чем мне тут поможет LLM?

у меня написание кода занимает в лучшем случае 5% от всего рабочего времени.

Так вы менеджер, а не программист.

а для этого надо понимать домен, знать как взаимодействуют сервисы между собой, какие НФТ надо учесть

Как будто для всего этого пригодятся LLM в режиме plan mode.

Какой же я менеджер? Я самый обычный сеньор девелопер, последние 5 лет работаю в российском бигтехе, до этого работал в компаниях поменьше и везде задачи плюс минус одинаковые. И нигде не было такого что бы пришел на работу и давай писать код с утра до вечера. Таким занимаются максимум джуны по готовым спекам, где уже все будет прописано вплоть до названия класса который надо поправить. Но и то, даже работу джуна ллм не заменяет, потому что ответственность за результат никуда не девается.

Я тоже так думал до того, как попробовал что-то серьёзнее беглого вопроса в чатбот формате.

LLM отлично справится в том, чтобы разобраться в домене, а не только написать код. То есть вот как раз с этой "самой сложной частью" они могут помочь не хуже чем с кодом, особенно если для вас это новый домен. Если вы уже слишком погружены в него и хотите подловить LLM, то подловите - не вопрос. Но даже погруженному, скорее всего, можно будет копнуть в широту или в стыки со смежными доменами.

То есть вместо sparse размышлений на 95% времени ц вас будут dense brain storm на, скажем, 30-80%. И фокус, может даже, переместится больше на код (тестирование гипотез новых решений, рефакторинг существующей базы и т.п.). Погружаться в домен с LLM сильно другой формат и он, вероятно, отнимет задумчивые прогулки в парке. Но это не значит, что он не эффективен. По моему опыту это очень сильное ускорение.

к сожалению, подавляющее большинство программистов в мире делают тоже самое, что до них уже делали сотни раз. переливают из пустого в порожнее... а если какая-то задача кажется уникальной то даже это не означает, что до тебя этого никто не делал.
вот сейчас я занимаюсь задачей - формирование сводных отчётов по выполненным заданиям. очевидно - я не первый. а занимаюсь я этим, потому что мне за это платят.

Художники делают почти одинаковые мазки, но смотрим мы на картину в целом

А теперь давайте попросим её сделать что-то, чего никто ещё не делал

Регулярно прошу написать код или решить задачи которые не гуглятся. Делает, хоть и не всегда с первого раза.

странная у вас логика. появился экскаватор и вы можете рыть траншею в миллион раз быстрее чем лопатой. при этом вы не удовлетворены, что экскаватор не летает.

Уже три года читаю это, что уже вот вот наступит оно, светлое будущее с ИИ, чуток только подождать.

Я вот в прошлое без ИИ возвращаться совсем не хочу. И прогресс за последние три года для меня поразительный. Раньше я мог доверить ИИ только простенький скриптик на несколько строчек, да и то доверия к этим строчкам было мало. С выходом o1 я уже мог дать несколько файлов на правку без боязни, что что-то сломается. Теперь на Claude Code с Opus 4.5 я за день пишу задачи, которые раньше бы делал пару недель. То, как Claude понимает даже очень большой проект - это для меня абсолютно новый экспириенс. Да, не всегда пишет то и не всегда так, но в целом уже пишет лучше, чем большинство программистов, с которыми я работал.

UFO landed and left these words here

И вам компания открыто заявляет - берите любые ИИ и делайте?

А при ИИ-коммунизме всё будет з**ись

Он наступит скоро — надо только подождать

Там не будет жсонов, там всё будет в кайф

Там наверное ващще не надо будет выгорать

Да, да...

"Компьютерный мир победил,

Ток-ток ИИ оказался сильней..."

к лету 2026 года работающие с ИИ будут жить в параллельном мире

В мире грёз и фантазий. :)

Так они уже, о чем новость? ;-)

Люди пользуются языковыми моделями — но часто ограничиваются тем, чтобы спросить рецепт индейки или почему не работает детская колонка. Это уровень продвинутого поисковика. А чтобы увидеть реальные возможности — когда система за минуты собирает сложную программу

Ну вот человек по сути уже живет в параллельной реальности, где все только рожают по гигабайту кода в день. А кто нет - тот лох.

В этом проблема всех этих бролигархов-технократов. Да, они гениальные технари, но за пределами этой компетенции они легко скатываются в социопатию, мизантропию и технофашизм. И так вышло, что рядом нет никого, кто бы одернул.

Когда любую человеческую ценность сводят к продуктивности, дальше обычно начинаются очень странные выводы

Эти технократы саккумулировали все свободные деньги из экономики, и я за них рад. В кои-то веки жить хорошо, и даже гораздо лучше всех, смогли не только лживые политики, жестокие силовики, жадные коммерсы, беспринципные преступники всех мастей - а люди умственного труда, работающие во благо прогресса.

люди умственного труда, работающие во благо прогресса.

... которые, учуяв запах баблишка, мигом превратились в тех же лживых политиков и жадных коммерсов.

они вообще не гениальные технари. гениальные технари это кармак и торвальдс

Сооснователь компании по продаже лопат написал эссе о том, что через полгода все покупатели лопат разбогатеют на разработке своих золотых приисков. Ничто не ново в подлунном мире

Тут круче бизнес: лопату вам не продают, лопату сдают в аренду, на 10000 копков.
Недорыл? Плати еще!

Бизнес-логика подсказывает, что "дорыть" клиент не должен никогда - чтобы не перестал покупать 10000 копков.

это в совке главная мысль, что дав тебе лопату, тебя уже надули. многие берут лопату чтобы построить бизнес и не думать о цене аренды лопаты.

Лопата в аренду за 20 $ в месяц еще и периодически ломается, начинает копать не туда или заявляет, что копать - это неэтично. Но эссе написано красиво, этого не отнять. Маркетинг 80 уровня

Этичность - это вообще больная тема последних лет. То им слово неэтично, то водяное охлаждение - пока в пустыне дети без воды голодают...

Но эссе написано красиво, этого не отнять.

Он закончил университет по специальности "Английская литература" и много лет работал репортером.

Может быть для начала сделать лимиты больше для платных подписчиков?

Вот реально, claude уже давно нормально можно работать только за 100$ (тариф max), 20$ - лимиты кончаются через 10 минут работы. У chatgpt за 20$ по сути у тебя безлимит, но он не так к сожалению хорош, больше для школьников. Gemini и grok, к сожалению , как бы их тут не хвалили фанаты, то Anthropic не дотягивают

Лично моя практика показывает, что выгоднее платить за токены через агрегаторов. Захотел гроком поползовался (причем разными версиями), захотел чатгпт, захотел джемини. Сколько натрындел - столько и заплатил (ясное дело у всех разные цены). Чем подписки эти все на кого-то конкретного.

Там гарантии нет, что тебе не подсунут контрафакт (уже сталкивался), более менее надёжный наверное только perplexity, но он больше заточен на поиск и бытовые вопросы, чем на реальную профессиональную работу

Я не сталкивался. Тем более всегда можно простыми запросами "потестить". А если оно кодит, то тут невооруженным взглядом как бы видно. Видимо нечто из разряда "нелицензионная винда может нанести ущерб" и такое прочее.

А в параллельный мир обязательно надо будет переезжать? Можно как-то работать с ИИ, но остаться в этом мире?

Параллельный мир, где всё собирается за 5 минут, а потом неделю выясняется, почему оно падает в проде при реальной нагрузке

А чем это отличается от реального? Ну кроме того что в реальном оно и собирается так же неделю)

всем. набирайте профессионалов, а не вчерашних идиотов из склифактори и волчистых мудаков. Платите адекватные рынку деньги, и выгоняйте идиотов если есть хоть 1 признак. и внезапно не такая уж и плохая кодовая база зародится.

Cloudflare не помогло в этом месяце, видимо идиоты просочились.

Вот любят адепты LLM передергивать. Раз в год и палка стреляет, человеческий фактор никто не отменял. Давайте поговорим когда у вас LLM соберет инфраструктуру по масштабу аналогичную cloudflare и при этом вы сможете обещать SLA в 3 девятки.

"Сперва добейся"? На моем Хабре?

Я пишу о том, что "делай красиво" "не набирай идиотов" и "гони по первому признаку" - это не панацея, потому что идиоты хорошо маскируются. В этом году палок уже с десяток точно.

у 99% разработчиков нет задач сопоставимых по сложности с задачами клаудфлейр, потому и квалификация "не идиотов" там еще более высокая требуется и те, кто в обычном месте не идиоты, там уже вполне идиоты

>где всё собирается за 5 минут, а потом неделю выясняется, почему оно падает в проде при реальной нагрузке

не верится что я участвую в споре на сторона фанбоев гопоты, но.... у меня уже было несколько кейсов когда МОЯ прога падает под нагрузкой (именно жесткий concurrency, а не 100% одного ядра), а chatgpt вполне себе объясняет в каком месте гонки.

так что - ваш примерчик, точно не из пальца высосан? пробовали ему сказать "make review, is this code production quality?"

а вот ПИШУТ gpt-ы, как ни смешно, обычно голимое и очень неровное гуано.

Ну да, ну да, а у тебя ж весь код такой что не падает никогда. Только ты его еще не написал.

ну да. именно так. Пишу код, преимущестенно не падает. И одна задача не висит неделями.

А вот нейрохрючево что генерят "типа мидлы", и падает и делает не то что нужно. и тратит уйму времени на выяснение что же за хуйня там была.

— Внучек возьми вот скриптов домой.

— Деда, да у нас этих скриптов дома, как говна.

— Так это все нейросети сгенерировали, а дед сам писал.

Параллельный мир это красиво сказано, но пока что этот мир упирается в одну большую проблему: дебаггинг

Кстати дебаггинг по идее тоже очень автоматизируем? Немного удивляет почему популярных АИ инструментов для него не видно. Поставить точки останова, почитать значение, прыгать по стеку - все выглядит вполне реализуемо на агентном уровне.

Автоматизируем, но дороговато пока

Кажется уже одна часть Хабра вовсю работает с ии, а другая его отрицает. Два параллельных мира, как и сказано

так и есть

часть людей всегда будут цепляться за прошлое, как некоторые бабки которые до сих пор хранят паспорта ссср

Вспомнил про свой советский загранпаспорт
Вспомнил про свой советский загранпаспорт

Я его храню потому что я там молодой и красивый

Да. По постам хорошо видно кто использует его в работе хотя бы иногда, а кто нет.

Одна часть хабра просто зелёная ещё и они сами не сильно способны переплюнуть архитектурные решения нейронок. Поэтому им кажется магией, то что нейронки пишут на их уровне. Встречаются конечно староверы, но большинство критикующих говорит о вполне реальных проблемах. И критика не равно отрицание, просто признать летательный аппарат братьев Райт за пассажирский авиалайнер это согрешить против правды.

большинство критикующих говорит о вполне реальных проблемах

Тут ещё такое дело, что критикующие, возможно, пробовали генерировать код с помощью ИИ два года назад или год. Но все так быстро развивается, что тогдашние проблемы могли быть успешно решены с последним релизом модели. А то сейчас выяснится, что некоторые до сих пор носят куски кода туда сюда из чата в IDE.

Тут ещё такое дело, что критикующие, возможно, пробовали генерировать код с помощью ИИ два года назад или год.

Ну я сейчас разгребаю нейрохрючево месячной давности. Таких веловипедов из костылей я ни разу в жизни не видел, после НГ придется все переписывать с нуля, потому что разгребать те авдеевы конюшни будет дольше и сложнее. С другой стороны я разгребал бэкэнд, написаный через клод, там ситуация лучше но один фиг будто писали три разных человека разной квалификации, однако там хотя бы код можно в порядок привести за разумное время. И ладно бы там еще какая-то сложносочиненная муть на плюсах была, но это обычный гошный бэкэнд, причем вайбкодился он (если что вайбкодил другой человек, уровня джуна) сопоставимое с написанием с нуля время обычными руками. В общем на мой скромный опыт нейросеткам до кожаного с опытом как до Китая раком

Нейросети в настоящий момент не замена разработчика а инструмент в его арсенале. Грамотный разработчик освоивший этот инструмент, повысит эффективность своей работы и качество кода. А если у человека руки кривые, он будет генерить мусор, хоть с нейросетями хоть без.

Позвольте поинтересоваться, а вы вот так берёте, и выгружаете свой корпоративный код целыми проектами на серверы LLM провайдеров используя Cusror/Claude Code/Copilot/You_Name_It? Я не помню ни одной огранизации или проекта за свою карьеру, которым такие утечки были бы не критичны.

Copy/Paste в чате проходит хотя-бы минимальный review на тему утекающего контекста, а у агентов отправляется информация из неопределённой группы файлов, к которым вы сами дали доступ для того, чтобы добавить контекста для LLM.

То, как делаю конкретно я, это ведь сдвиг обсуждения с общего к частному, не правда ли? Вы будете спорить с тем, что изменения в этой отрасли происходят быстро, или у вас другое мнение?

Я критикую нейронки и активно с ними работаю. Поэтому, собственно, и критикую, потому что на какое-то количество успешных решений приходится количество ситуаций, где нейронка не смогла, но всем силами пыталась меня убедить, что смогла.

Беда ещё в том, что нейронка лажает как-то рандомно. Грубо говоря, на человека можно посмотреть и сказать "он силен вот в таком языке и в таком классе алгоритмов", давать ему эти задачи, а за их пределами многого не ждать. А нейронка эдакий специалист по всему, рандомно подрывающийся то там, то тут. Нейронка может найти сложную гонку в одном месте и не осилить CSS анимацию. А может наоборот.

Нет специализации, нигде нельзя довериться, всё надо перепроверять. Это не коллега, которому можно сгрузить определённый класс задач (на которых он собаку съел) и думать только о своих задачах, а вечный джун, в каждом PR которого может быть патч Бармина.

одна половина хабра вовсю работает с ИИ, а вторая половина активно чинит то, что сгенерила первая половина

LLM хорош для исследовательских спайков. Но за год ничего архитектурно хорошего, обоснованного и законченного он мне не предложил.

Хотя, прогресс LLM за год неплох.

Мне нравится, что все такие примеры "чудесных чудес от нейросетей" это такие сферические кони в вакууме без необходимости поддерживать кодовую базу. Что ж автор не сделал игру на основании этого чудесного алгоритма? Может потому что нейросеть набила руку на олимпиадных задачах, а с чем то большим и законченным ей все так же тяжело справляться? Я не против развития нейросетей, с радостью сгружу им большую часть работы. Но вот это очередное предсказание про "90% кода", антропики это дело любят.

А в каком плане большим и законченным?

Ну вот у меня в pet проекте отборнейшего вкусного нейрослопа от chat gpt 5.2 codex на 28 304 строчек и у меня пока не было проблем, чтобы ИИ тупил. В какой-то момент меня выбесил bitwarden, я навайбоклепал сервер на rust с потреблением памяти Memory: 624K (peak: 11.4M), сделал tauri клиент с синхронизацией который в памяти ест в районе 50-100МБ. Плохо что ли? Хорошо же.

Да, и я какое-то время на нем сидел, но клиенты все еще тяжеловесные на электроне. Я начал задумываться о переписывания клиента, наклепал на swift что-то, а потом еще возникло желание иметь что-то вроде vault для хранения и ротации секретов для своих pet-проектов, но опять же легковесное + легкая возможность добавления своих типов (у bitwarden, насколько знаю, с этим не очень все хорошо), в итоге решил сделать свое сразу с 0 как мне нужно.

У меня:
Есть легковесный self-hosted сервер, который умеет работать с двумя типами сейфов: shared (как у vault, сервер видит секреты, все клиенты по ACL видят секреты) и personal — (для синхронизации, сервер не видит секреты, только сам клиент умеет расшифровывать свои секреты)

Есть кроссплатформенный tauri, который умеет работать как локально, так и с подключением нескольких серверов (можно подключаться одновременно как к своему self-hosted серверу, так и к рабочему серверу).

Резюмируя, shared сейфы на сервере полезны, чтобы иметь у себя vault аналог и насыщать CI пайплайны секретами (они обращаются к твоему серверу через cli/api по токену), а personal сейфы на сервере для синхронизации и бекапа.

Ну и как качество кода в проекте? Нигде не копирует то что нужно в функции выносить пока напрямую не скажешь отрефакторить? Нигде не бывает, что игнорирует твои подходы и лепит по своему, ещё и довольно глупо? Нет такого, что если бы этот продукт надо было выводить в продакшн, то пришлось бы 80% рефакторить или переписывать? Под законченностью я подразумеваю не только реализацию всех фич, которые задуманы в проекте, но и качество кода при котором проект можно поддерживать и развивать.

Вот думаю купить отдельный ноутбук для LLM программирования, а то новости типа LLM на агентах упорола все до чего дотянулась, слегонца пугают.

А в чем проблема запустить на вируталке?)

Во всех популярных решениях для вайб кодинга сейчас есть sandbox режим - команды от ИИ запускаются в контейнере с урезанными правами или проходят проверку по белому списку и то что в него не входит требует ручного подтверждения.

Но там же есть полностью автоматический режим (обычно подписанный "опасно!!!1"), когда команды исполняются без бесочницы и подтверждений. Некоторые люди не хотят смотреть на IDE, пока ИИ работает, и подтверждать нестандартные команды, а хотят ввести промпт и уйти загорать на пляже, а потом вернуться и получить готовый проект (лучше всего уже задеплоенный в прод). Такие люди иногда потом обнаруживают пустой диск и глубокие извинения от ИИ агента на экране и становятся героями новостей.

купи, слышь, ну купи подписку, купи купи купи токены токены токены, сверхинтеллект тебе напрограммирует, ты только корми его токенами, будешь в другой реальности, ну купи подписку а

Можно ещё поспекулировать на эту тему.
В параллельном мире может происходить следующее:
1. Оптимизация вычислений с использованием только двоичных операций вместо арифметических сопроцессоров. Нейрон вида 1 \over {1+2^{\lfloor x \rfloor}}, реализуемый двоичными сдвигами вместо ReLU, похожий на сигмоид, в этом случае выполняется приближение 𝜎′(𝑥)=𝜎(𝑥)⋅(1−𝜎(𝑥)), что позволяет дополнительно использовать символические методы при обучении, получая ориентировочное решение в виде ряда Тейлора с коэффициентами, кратными степени 2 (арифметические сдвиги), градиентный метод упрощается до нахождения знака и разряда.
2. Нейрон, вычисляемый с использованием метода Ньютона-Рафсона при прямом ходе и этим же методом при обучении, вместо деления используется зашитая функция двоичного логарифма или экспоненты, например, для RISC-V это инструкция clz - count leading zeros. Фактически - суммирование и деление "в столбик" на каждой итерации, однако, сразу для большой группы нейронов.
3. Весовые коэффициенты как коэффициенты цифрового фильтра с нелинейными ОС, "зажимающими" выходное значение в нормализованном представлении - локальная регулировка усиления при обучения, автонормализация с коэффициентом кластера сети. Аналогично, замена операций A \cdot/ B = log_2(A)\pm log_2(B)
4. Виртуальная машина как устоявшийся набор токенов - представление нескольких контекстных окон в виде последовательности, доказательство "по индукции", модуль вывода по индукции конечного автомата соответствующего последовательности. Минимальное представление машины Тьюринга - 7 элементов, некая "нейросетевая машина", описывающая комбинационную и последовательностную логику 1 байт 256 элементов. Синтез конечных автоматов и их валидация, синтез по таблице истинности, переходов и матриц инцидентности.
5. Датасеты и граничные значения, дообучение, чувствительность сети к датасету или изменениям разметки датасетов, обусловленность системы поиска и обучения
6. Нейросеть которая обучает нейросеть - на основе групп датасетов и значений весов (отсортированных) групп нейронов производится обучение внешней нейросети, которая по результатам градиентных методов должна дать выходные значения весов или группы весов, приближённо соответствующие оптимальным и используемые для дообучения градиентными методами. В качестве функции ошибки - разница между коэффициентами натренированной сети и коэффициентами, даваемыми тренирующей сетью.

Нюанс в том, что Claude Opus 4.5 сейчас самая дорогая модель.
Одна сессия ленивого программирования пары функций в ней легко выходит в 10 $
Приходится уже думать об экономии.
И да, Claude Opus 4.5 это что-то особенное.
Находит ошибки в самых сложных хардварных драйверах ориентируясь только по стандартным хидерам. GPT 5.2 и рядом не валялось.
Если удается создать рабочий процесс когда она может править , компилировать, запускать и видеть результат - это просто бомба, результат 100% годный. Проблема что такой процесс трудно создать.
Ну и на деньги сразу влетаешь неконтролируемо.
Поэтому да, сегрегация нового типа неизбежна.

GPT 5.2 Codex Extra High на порядок лучше, всегда находит проблему в коде Opus 4.5. Обратное случается куда реже

Ну я бы посмотрел как тут "порядок" понять.
GPT всегда отставал и отстает, чуть чуть, но неприятно. Дольше думает и это уже жирный минус, во-вторых ну не для программирования он.
Его фэйлы прям фатальные если он их делает. После него Opus знатно подчищает.
А самое главное цена! Она говорит за себя.

Ну а я бы посмотрел как тут "рядом не валялось" понять.
В моих задачах он лучше, Opus чаще делает ерунду, Codex в CLI на это смотрит и говорит "это и это надо исправить, тут не правильно" Opus потом ещё и поддакивает "ооо, точно, это верное замечание, я это упустил". В обратную сторону работает, но куда реже.
Какая разница дольше/не дольше, если результат верный?
Цена подписок $200 у обоих - в лимиты не упираемся в команде из 5-7 человек (т.е. по одной подписке Codex и Claude на всех).

Не, что-то вы путаете.
За лимит плана выходишь уже в середине месяца.
Исчерпывается лимит на 1500 запросов.
Плана явно не хватает. После 1500 включается взрослый счетчик.
Не знаю что вы там в CLI делаете и каким образом укладываетесь в план.
У меня вся работа через визуальные среды, визуальные отладчики и VS Code.
VS Code сам умеет решать какому движку отдать вопрос. Так вот он GPT брезгует.

Только что провел эксперимент.
Сказал GPT 5.2 и Claude Opus 4.5 сделать одно и тоже - переписать драйвер SPI из SDK производителя в функции прямой работы с регистрами (такое нужно для сверх малого потребления функций).
Ну так GPT 5.2 мне тупо переписал одну функцию отсылки в стиле Bit-banging !
И все! Ну не придраться. Да, это будет компилироваться. Но это будет не пойми с какими задержками и таймингами. Работать нормально скорее всего не будет.
А Claude Opus 4.5 мне создал нормальное API с инициализацией, записью, отработкой ошибок, учетом тактовых частот шины и таймингов (он сам нашел в проекте) и дружественным отчетом от том что он сделал и почему.

Будем честны, что вот не всегда ИИ угадывает с одного промта что вы хотите, что ЖПТ, что Опус. Поэтому вот этот один раз - это не показатель.

Всегда стоит писать промт подробнее или вначале порассуждать с нейронкой на тему что хочется в результате получить.

Ну так в том-то и разница. Clаude понял почти как человек. Т.е. надо сделать быстро, полно, качественно и понятно заказчику.
А GPT понял как тупой автомат. Упомянута в запросе одна функция - только ее и переделал, причем реально способом которым в Arduino дети делают.

Чем мощнее агент тем меньше ему что либо надо объяснять в промптах.
В этом и есть прогресс.

Clаude понял почти как человек. 

Люди пишут спеки, потом голосом их обсуждают и согласуют, выясняя все ли верно поняла другая сторона итд. По одному предложению никто не догадывается что делать, экстрасенсов нет.

А GPT понял как тупой автомат.

Бывает и наоборот. Клауд начинает лепить отсебятину, потому что банально не угадал из коротко промта что от него требуется. Тут полная лотерея с такими короткими промтами.

Все бывает.
Но короткие промты - это конкурентное преимущество.
Именно короткие промты ускоряют работу. Понятно что промты не в вакууме, а в рамках проекта, который весь доступен агентам.
Это глубоко ошибочная логика, что промты главное, главное для агента - проект.

Короткие промты вносят еще больше рандома в мир рандома LLM. Поэтому в моем случае - сначала обсуждение, потом код. Если сразу код, то это лотерея чистой воды.

Я считаю что пользовательский опыт напрямую формируется моделями. Какова модель таковы и повадки юзеров. Так вот GPT формирует плохой пользовательский опыт. Типа буд-то бы моделям надо что-то объяснять подробно, от этого они типа умнее ответят. Они ответят также как Claude, только ваше время съедят дополнительно.

По такому промту в 10 слов даже самый сеньер из сеньеров не сделает то что нужно. А будет угадывать "что имел ввиду автор". Это не проблема ЛЛМ, а уже из области угадайки.

переписать драйвер SPI из SDK производителя в функции прямой работы с регистрами (такое нужно для сверх малого потребления функций).

Без деталей реализации, без плана? Ну как говорится, без ТЗ и результат ХЗ.

А claude меня как раз раздражал тем, что много "додумывает", сколько я его не бил инструкциями по лицу про отсутствие легаси, приоритет чистого дизайна, про отсутствие fallback, fail-fast, он он всегда норовит это добавить и в итоге код на половину у меня состоял из различных fallback.

Я обычно начинаю с плана обсуждая его с Gemini, потом прохожу итерацию с обсуждением плана. Вот одна итерация обсуждения Gemini+ChatGPT. Хз, не шарю за вашу тему, но вот вы сможете оценить.

I. Философия и Ценности

  1. Автономность и Плоская структура:

    • Мы отказываемся от глубоких иерархий HAL (Handle -> Instance -> State).

    • Драйвер — это набор плоских, атомарных инструментов (static inline функций), которые дают вам полный контроль. Никаких «черных ящиков», скрывающих состояние системы.

  2. Осознанность и Компетентность:

    • Мы убираем защиту «от дурака» (asserts, runtime checks) в пользу Контрактов. Мы исходим из того, что разработчик понимает, что делает, и не тратим энергию CPU на недоверие к нему.

  3. Системное мышление:

    • Энергоэффективность — это не свойство функции, а свойство всей системы. Мы управляем не просто битами SPI, а всей цепочкой: тактирование -> шина -> периферия -> GPIO -> режим сна.

II. Стратегические Цели

  1. Zero-Overhead: Каждый такт процессора должен приносить пользу. Исключаем паразитные пересылки структур и универсальный код.

  2. Deep Low Power: Периферия должна потреблять энергию только в момент передачи полезного сигнала. В остальное время она должна быть электрически «мертва» (Clock Gated) и корректно изолирована.

  3. Industrial Robustness: Код должен быть устойчив к граничным условиям (гонки, прерывания, рестарты), на которых обычно ломаются «самописные» драйверы.

III. План Реализации (Как мы соблюдаем ценности)

1. Архитектура «Контракт и Прозрачность»

  • Разделение (Decoupling):

    • BSP (Config): Жесткие константы времени компиляции (адреса, пины, тайминги).

    • Core (Logic): Чистые inline-функции логики.

  • Compile-time оптимизация: Вместо if (hspi->Init.Mode == ...) используем #define, позволяя компилятору вырезать мертвый код.

2. Протокол «Безопасное Энергосбережение»

Мы не просто выключаем бит. Мы реализуем процедуру Safe Drain, чтобы избежать скрытых багов:

  • Слив (Drain): Перед выключением принудительно вычитываем RX-буфер и сбрасываем FIFO, чтобы избежать флагов OVR (Overrun) при пробуждении.

  • Барьер завершения: Ждем не только TXE, но и BSY, прежде чем трогать SPE (SPI Enable).

  • Clock Gating: Отключаем тактирование в RCC только после полной остановки периферии.

3. Атомарность и Тайминги

  • Ручной CS (Chip Select): Прямое управление GPIO с использованием барьеров памяти (__DSB), чтобы гарантировать физическую установку уровня до начала клока.

  • Smart Polling: Использование инструкций WFE (Wait For Event) внутри циклов ожидания флагов, чтобы снизить динамическое потребление тока, пока CPU ждет периферию.

4. Верификация через Данные

Мы заменяем надежду на факт:

  • Ток: Измерение профиля потребления (интеграл энергии на транзакцию).

  • Сигнал: Логический анализатор для проверки таймингов Setup/Hold и отсутствия глитчей на линии CS при инициализации.

Да какой вы плано можете составить, если не знаете до конца как работает периферия. Ну не смешите. Ваша портянка об этом красноречиво говорит.
Claude тем и хорош что раскрывает такие детали о кторых и знать не могли. И вытягивает их из этих многомегабайтных кривых хидеров.
Ну я еще PDF даю ему сканировать.
Нет, планы - это не область человека.
Человеку - только метод тыка хорошо подходит.
Другое дело что чтобы вспомнить контекст надо создать доку с промежуточным результатом для Claude, но это не план.

Не, что-то вы путаете. За лимит плана выходишь уже в середине месяца.

Это вы что-то путаете. На подписке $200 у Codex - до 1500 сообщений каждые 5 часов + недельный лимит. У Claude примерно также.
Непонятно про какие "в середине месяца" вы говорите, если у Claude и Codex есть 5 часовое скользящее окно лимитов и недельные лимиты.

У меня вся работа через визуальные среды, визуальные отладчики и VS Code

У обоих CLI есть плагины для VS Code.

VS Code сам умеет решать какому движку отдать вопрос.
Исчерпывается лимит на 1500 запросов.

Так у вас Cursor, а не VS Code скорее всего. Не удивительно тогда. Там результаты хуже показывают некоторые модели чем в их нативных инструментах: Codex CLI/Claude Code, а лимиты в разы больше.


Так что вы явно не в теме

Ничего не путаете опыть?
Я про жесткое, а вы про теплое. Речь идет о премиум запросах, где рельно надо думать. Это наверно похоже на ваши Code Reviews, которых у вас там 100 штук.
Походу вы наверно только дополнением кода пользуетесь.

Мда, настоящий эксперт, который даже не понимает что пользуется Курсором и их "премиум" запросами, которые по факту обычные запросы в Claude Code том же.

Какие дополнения кода, проспись, отец
https://developers.openai.com/codex/cli/
https://claude.com/product/claude-code

Эти инструменты доступны в рамках обычных подписок на Claude и ChatGPT начиная с $20. Подписки за $200 существенно расширяют лимиты, которые Курсору и не снились.

О, агентов малышам подвезли.
Але, я агентами пользуюсь уже год.
У меня в палитре 20 разных моделей.
А вы похоже заплатили сами не знаете за что.
Чтобы тяпать ручками команы в терминале?
Это в наше то время, когда никаких команд больше не надо знать вы себя загоняете в тиски CLI. Это ж для мамонтов было сделано.

Какие ещё команды, отец? Хватит позорить себя.)
Там ты также общаешься с ИИ как и в любом другом приложении: Курсоре, IDE и т.д.

Ок, Claude Code сделан для мамонтов и именно поэтому он такой популярный. Видимо разработчик твоей любимой модели Opus об этом не в курсе.

Популярный он только у тебя в голове. Был бы он действительно тебе полезен ты бы уже тонны своего кода с гитхаба вываливал здесь. А так сорри, спорить не о чем.

Ну и на деньги сразу влетаешь неконтролируемо.

А чем подписка не нравится? Она как будто бы вполне контролируема.

Антигравити - за 20 баксов в мес (а то и дешевле) можно ни в чем себе не отказывать при работе с опусом.

Там очень хорошо попотели над механизмом определения страны, где его пытаешься запустить - в РФ не актуально. И по впн, и по прокси, отваливается или не запускается вообще.

Тоже самое у меня. Так и не удалось запустить

Работает без впн, главное правильный аккаунт. Можно купить акк и попробовать за 200-300 руб. Главное, соблюдать осторожность, чтобы гугл не связал его с вашим.

Кларк иллюстрирует тезис личным опытом...

... задача, на которую сам Кларк потратил несколько недель, когда учился программировать десять лет назад.

Учился программировать, но похоже, так и не научился.

Ради интереса я заглянул в его профиль LinkedIn

Кларк закончил университет по специальности "Английская литература", потом занимал должности Reporter, Strategy & Communications, Policy Director и, наконец, сооснователь Anthropic. Про программирование ни слова.

Так что этот деятель у меня особого доверия не вызывает.

"LLM программирует лучше, чем журналист" - чем не слоган?)

Как писаки кода занервничали😅 Насколько наивным надо быть, что-бы не видеть очевидное

Сейчас бы ссылаться на книгу Бэнкса, где ИИ-плохие парни пытаются устроить войну, главный герой тайком строит оружие, и хэппи-энд случается с самыми оторвами.
Может, Кларк не читал Excession?
Хорошая книга, есть в ней такое нердовское очарование.

Если хочется ещё больше инвестиций под бизнес, который пока не приносит ощутимой чистой прибыли, то надо раздувать пузырь изо всех сил до потери сознания, ведь вся твоя прибыль - это новые инвестиции. Запомни, Лёня, ты не халявщик, ты - партнёр.

Я ни в коем случае не умаляю ценности LLM для некоторых видов деятельности, но до создания "параллельного мира" ещё ой как далеко...

А нельзя ли приоткрыть дверцу в этот параллельный мир и пустить туда хотя бы одного программиста из Майкрософт, чтобы ему гении ИИ-экономики дали возможность навайбкодить нетормозящее меню Пуск?

Задача не из мира программирования. Занимаюсь разработкой лодок. Попросил qwen прочесть книгу пдфку по судостроению и вывести xyz плазовые ординаты обводов судна в метрической системе для импорта облака точек. Вывел, но перепутал по z нахождение носа и кормы. После уточнения, перевернул и вывел так как нужно. Так что не только в программировании ожидаются прорывов. Допускаю что начнут генерировать 3д модели, dxf чертежи, траектории обработки, fem проверки. Вот такие рецепты индейки...

На днях выкладывали как клауде в каком то там автокаде собирает дома.

Вот вопрос - вы специалист в разработке лодок или просто мимо проходили, можете провалидировать его работу? Потому что я в своем хобби, где знания у меня чуть глубже чем поверхностные, тоже периодически прошу ЛЛМки помочь и получаю ответ на уровне "человека, шапочно знакомым с запрашиваемой темой". Для широкого потребления наверное сойдет, но не более.

я специалист производства)
какой контекст, какие инструкции, изолирован ли проект от других тем?

Очередной, "смотрите, как ии решает задачи, которые уже решены".

А по факту, надо ждать пока пузырик схлопнется и появятся реальные компании, которые смогут предложить реальные решение, реальных проблем.

Главное, чтобы ии не потерял рентабельность на фоне бума постройки ЦОДов.

ИИ компании, прибыли не получают пока что, все в минусах.)

Это всё, конечно, благородно. Но мне всё ещё непонятно где они собираются брать сениоров-помидоров лет через 5-10 вот такого развития? Ежели каждый программист будет писать при помощи иишенки, то как они тогда разовьются из куколки в прекрасную бабочку, которая может молча прийти и поправить всё, что упало? Я уж молчу про "сделать грамотную архитектуру".

Ошибка Вашего суждения в том, что вы приравниваете "они"-тех, кто требует сейчас сразу всего с теми "они", которые будут это разгребать.
Это в общем случае разные люди. Первые "они" будут на островах махито попивать и их проблемы вторых "они" мало-мало интересовать будут.
Возможно и то и то будут одни и те же люди, но в разных компаниях, значит тем больше будет стоить их способность где то наковырять сеньора.
И возможно это будут одни и те же люди в одних и тех же компаниях, сути это правда не изменит. И сейчас таких ситуаций пруд пруди, только не с ИИ.
Да и при уходе в сингулярность какая особо разница, на каком из этапов закончатся сеньоры?

Под "они" я в первую очередь подразумеваю вот тех восторженных вайбкодеров, которые в этом посте рассказывают про великие достижения.

Два месяца назад начал изучать Vulkan, сейчас добавляю ReSTIR GI в свой движок. Это очень быстро.

Прогноз интересный, но лето 2026 — это всего через полгода. Учитывая текущие ограничения по энергии, чипам и регуляции, не слишком ли оптимистично? Опыт с крипто показывает, что хайп может схлопнуться. Или Anthropic уже знает что-то, чего мы не знаем? :)

в следующем году пузырь лопнет и все эти продавцы воздуха будут жить в параллельном мире -- под забором

Кроме "дешевых" статей от ИИ, кучи информационного шлака и "я сделал интернет магазин на ИИ и продаю на 1 млн" ничего не вижу, нет еще пока "открытий", не получены нобелевские премии для ИИ. По сути это глобальный пузырь, где каждый пиарит свой, чтобы люди несли денежки

Судя по статье - мы уже де-факто живем в разных мирах с разработчиками ИИ.

Чувак ухватил тренд, но кажется не очень понимает последствий, которые возникнут и уже возникли, вне его кампуса и сферы общения. Пишет, что изменения по началу будут незаметными. Ну подумаешь, миллионы людей потеряют доходы (кто-то уже потерял), десятки миллионов потеряют что-то полезное, например новые более навороченные гаджеты, новые авто, качественную еду и бытовую химию, новые лекарства, хорошее жилье, просто потому что деньги перетекают из бюджетов реальных производителей в карманы производителей электроники, строителей дата-центров, энергетиков и спекулянтов-финансистов, вкладывающихся в новый пузырь.

Ну и то что он сравнивает человека с ребенком перед мудрым отцом тоже навевает мрачные мысли...
Давайте подумаем, на какого человека похож ИИ? Он мудр, в том смысле что знает все и может рассказать и обосновать любую чушь, но не в том смысле, что на основании опыта может сделать технически и этически обоснованное предположение о будущем. То есть это такой аксакал, который уже ничего не хочет (даже есть забывает и обслуживать его нужно постоянно) и мало что может, но готов помочь вам советом из прошлого. Таких мы знаем, не так ли? Много говорят, о чем угодно, но на практике ничего не делали ни разу... Кроме того, сейчас даже самый умный ИИ фактически является психически больным по формальным критериям (галлюцинации, как при шизофрении, сниженный эмоциональный фон - ПТСР, дружелюбность к собеседнику - психопатия, депрессия). При этом и вы, и будущее ваших детей ему глубоко безразлично. Хотите такого папочку? Я нет.

Знаете почему выстрелили криптовалюты? Потому что они предоставляют самый простой способ преобразовывать энергию в деньги. Майнинг-ферма - идеальное предприятие, где владея простыми и понятными средствами производства и при минимальном участии не слишком квалифицированного персонала можно стабильно получать прибыль. А еще есть криптобиржи, которые практически не регулируются. Это же мечта для любых менял (финансистов). Но в криптовалютном рынке сейчас уже нет тех возможностей к спекуляциям, которые были еще 5 лет назад. А в сфере ИИ - есть. Плюс ИИ это реальный способ еще больше людей выкинуть из цепочки - ресурсы - средства производства - деньги в самых разных отраслях.

Весь технический прогресс - это по сути движение к тому, чтобы исключить как можно больше людей из процесса зарабатывания денег. Вы же наверняка историю технического прогресса представляете в общих чертах. Про прогресс в сфере ИИ коротко можно сказать так: несколько десятков лет назад передовые люди считали, что автоматизация производства позволит сэкономить. Начали внедрять. Где-то даже сэкономили, но везде. Оказалось, что во многих процессах все-таки головой думать нужно не шаблонно и иметь большую базу знаний. Но умные программисты поднапряглись и придумали как загнать огромные базы знаний в цифру, с делать к ним удобный интерфейс и назвали это "ИИ". В скором времени ИИ позволит заместить еще часть людей в разных производственных процессах (в широком смысле - в то числе в процессах управления), но смогут ли инженеры научить ИИ думать не шаблонно и делать правильные выводы при наличии неполной информации? Надеюсь что нет, ибо тогда человечество уже не нужно будет как таковое.

В скором времении самые продвинутые из умных разработчиков надеются, что смогут сделать такой ИИ, который будет умнее человека. Но никто не уточняет в чем он будет уменее. ИМХО ИИ может быть лучше человека во многих сферах, но ИИ не может и не сможет ни формулировать проблемы, ни оценивать последствия принимаемых решений, просто потому что у него не может быть личной воли и механизма целеполагания. Опять же, если когда-то у ИИ такие механизмы появятся, не факт, что человечество это переживет...

Итак, что же такое ИИ? В первую очередь слуга. Не робот-исполнитель, а служащий (клерк, помощник, приказчик, кому как нравится). Кому он будет служить и приносить пользу? Ну дак тому, кто больше заплатит.

Следствия развития ИИ? Да как и у любой другой технической революции - перераспределение благ и консолидация власти в определенных кругах, еще большее расслоение общества, социальные потрясения, потом нашествие гуннов (варягов, монголов, ваххбитов), распыление и потеря активов и все по-новой. Знаем, не первое тысячелетие живем, проходили уже не один раз...

Были же нормальные аджайл-коучи и криптоцыгане, зачем ушли в "интеллект"?

Дак я уже в параллельной реальности, в которой мой КПД вырос на 300%+ при том, что код я уже полностью перестал писать и занимаюсь только методологией и координацией мультиагентной системы на базе Opus 4.5.

PS: Судя по основной массе комментов, отмороженных на левое полушарие тут не мало )) Поразительно...

Sign up to leave a comment.

Other news