Как стать автором
Обновить

ИИ в промышленном программировании: почему там пока обойдутся без ChatGPT

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров4.8K
Всего голосов 4: ↑4 и ↓0+4
Комментарии19

Комментарии 19

А на самом деле ситуация в том, что на зарплату АСУшников даже ИИ откажется работать.

Это не далеко от истины). Но не везде.

Это у нас не нищенская зарплата, это страховая премия за безопасность профессии в перспективе ;)

Да вполне пишет код для Симатика, ну вложенный цикл мне написал.

Другое дело, что нет смысла писать вложенный цикл с помощью ИИ, вообще почти всегда в проектах основное это не код, а технология.

использование лишь открытых источников для обучения нейросетей, вероятность сгенерировать что-то защищённое лицензиями

Тут вы очень не правы, весь открыты код защищен лицензиями. А гит хаб со своим копилотом вообще опозорился и использовал вообще весь публичный код, даже тот у которых не было разрешительных лицензий.

Точнее не "опозорился", а "клал болт на лицензии". Не удивлюсь, если MS и приватные репы использует в своих нуждах

этот ChatGPT излишне распиарен, он слишком далёк от того чтобы "писать код за программистов". Все эти рассказы о том как ChatGPT куда-то там поступил и написал кому-то диплом чуть более чем враньё. Можно в ютубе посмотреть какие проблемы Bisqwit показывает в "мыслительных процессах" этого ИИ, как он безуспешно пытается выжать от него правильный ответ. Сам же я пытался скормить ему задачки из ВПР по математике за 6й класс, каково же было моё удивление что ИИ в них лажает. И это далеко не олимпиадные задачки. Максимум ChatGPT, да наверное и самое логичное предназначение - обрабатывать поисковые запросы пользователей, и этим наверняка может оказаться что будет удобно пользоваться

Под промышленным программированием тут явно подразумеваются встраиваемые(embedded) системы.

Писать код там требуется все меньше. Больше требуется рисовать. Последний свой проект для промышленного контроллера был полностью мной нарисован в виде диаграмм состояний и поточных блок-схем.
Но такого материала на гитхабе мало. И нейросетям не на чём учиться. Т.е. нынешние нейросети всего лишь догоняют человечество пока оно изобретает новые парадигмы программирования и нарабатывает объем обучающих материалов.

Нейросети это уже как продукт пищеварения. Никогда такой продукт нельзя будет обратно использовать в пищу. Для людей, во всяком случае.

А вот внутри embedded систем нейросети идут на ура. У меня лежит отладка на STM32 которая довольно шустро распознает введенные символы на экране, легко распознаёт по звуку мотора его ресурс, распознает речевые команды. Нынче нейросети идут как стандартные библиотеки даже к самым мелким микроконтроллерам. В тех же сименсах они наверняка есть.

Если Вам надо рисовать схемы, то ChatGPT уже интегрирован в такие приложения, как yEd Graph Editor, и FlowChart.IO. Можно сэкономить на стилизации и представлении схемы. Содержание схемы придётся дорисовывать самим, ибо ИИ даёт неполную картину.

Надо попробовать. Хотя, возможно, проще руками в miro

Мне кажется, нейросети всё-таки в первую очередь будут массово использоваться в процессах, где цена ошибки невысока, и просто нужно держать некоторый невысокий процент ошибок, чтобы потери от этих ошибок были гораздо меньше, чем экономия от отсутствия людей в процессе. Уже в условиях повсеместного использования нейросетей этот процент будет постепенно понижаться, и когда дойдёт до совсем микроскопических значений - тогда и о внедрении в процессы с высокой ценой ошибки можно будет говорить.

В общем, я думаю, что скорее не 5-7 лет, а 8-10. Года три на повсеместное внедрение в "не очень страшных процессах", лет пять на постепенное снижение процента ошибок, и пара лет уже на внедрение в процессы с высокой ценой ошибки. Хотя, честно говоря, мне все прогнозы в этой области кажутся некоторой условностью - может быть, завтра нейросети заставят проектировать архитектуру нейросетей, а послезавтра они спроектируют такую архитектуру, в которой ошибок практически не будет)

А можно наоборот. Там, где результат работы искусственной нейросети не совпадает с результатами деятельности человеческого мозга, сделать анализ с повышенным вниманием. Врач рак на снимке не увидел, а искусственная нейросеть увидела? Привлечь ещё одного врача.

Его часто пишут на редком, малоизвестном языке. Такой код умеет эффективно работать с конкретным контроллером и способен это делать быстро без увеличения вычислительных ресурсов.

Это так мило, когда люди слыхом не слыхивавшие о IEC 61131-3 рассуждают о программировании ПЛК.

Зря вы так.
LD — релейные схемы
FBD, CFC — функциональные блоки
SFC -- диаграммы состояний
CFC - не сертифицирован по 61131-3

Это ещё более мило. Вы из старой триады LAD-FBD-STL один язык потеряли. И старый добрый SCL, на котором километры программ написаны.

Я где-то написал, что указал все языки?

Не соглашусь, что ИИ не найдёт применения в промышленности в ближайшее время. Я долгое время работал с описанием технологии производства в реляционных БД, на это уходила уйма времени и это сложно даже для самых простых операций. Потом попробовал обучить ИИ.
Выводы: 1. обучение ИИ много раз быстрее, чем заливка данных в "плоские" таблицы; 2. ИИ обладает рядом качеств, позволяющих оборудованию работать в режимах, которых не было в исторических данных и которые не были изначально заложены в обучающую выборки ИИ; 3. ИИ позволяет легко проводить эксперименты в лабораторных условиях с новыми наборами данных, с обратными функциями и т.д., т.е. изучать объект автоматизации и режимы его работы.
Если вы приложите усилия, то найдёте материалы по этой теме.

Речь не применении ИИ в промышленности, но применении ИИ в специфичном промышленном программировании. Вроде сделали акцент на этом.

Мы немного о разном.
Обученная нейронная сеть может весить совсем немного и её можно подгрузить как объект в PLC.
Почему бы и нет, если это будет работать лучше, быстрее, чем обычный код?
Совсем маленький пример - смарт камеры. По сути - это специализированные PLC с функцией распознавания видеопотока.

Да, ИИ не генерирует код и не "программирует", но он может обучать модели ИИ, использующиеся в PLC.

Парадигма "программирования" меняется на парадигму "обучения". :)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий