Pull to refresh

Comments 107

Значит всё это прекрасно - на уровне статьи и препринта. Только давайте поймем, что у нас тут случилось уже два уровня абстракции:

  • Реальную схему созданную из реально существующей меди, керамики и проч (с их неоднордностями, неидеальным химическим составом) заменили на математическую модель. Мне отсюда не видно, какую именно - но либо в частотной области (метод частотного баланса и друзья), либо во временной (метод конечных элементов со товарищи).

  • Теперь математическую модель заменили на некоторую интерполяцию сделанную методами ML и ИИ.

  • И мы радостно решаем задачу оптимизации на приближениях, полученных на предыдущем шаге.

А кто при этом собирается решать очевидные вопросы:

  • Наш алгоритм оптимизации решает реальную задачу - или пользуется неточностями модели, чтобы обойти известные физические ограничения ? Я наелся генетических алгоритмов в задаче оптимизации маршрутов. Как только есть хоть какая-то loophole в целевой функции или штрафах - они ее найдут и используют: функция отличная, маршрут - плохой. А тут задача с еще большей размерностью, квантовыми эффектами, и так далее!

  • Кто отвечает за воспроизводимость этих волшебных технологий в железе ? Будут ли эти волшебные параметры воспроизводиться при реальном разбросе характеристик при напылении/травлении ? При повышении или понижении температуры ? При старении материалов микросхемы ?

Я уже не в первый раз слышу, что ИИ и ГА делают гениальные технические решения - но ни разу не слышу чтобы они пошли в производство! Потому что реальный инженер понятное дело не такой креативный - и составляет решение из блоков. Но именно поэтому можно гарантировать какие-то характеристики при реальном разбросе параметров изделий. А если эти характеристики не выдаются - то поблочно искать, где свинья порылась... А куда тут запихнуть ИИ решения - непонятно. Хотя если просто смотреть на них как на произведения инженерного искусства - да, красиво, и можно найти эстетическое удовольствие!

Спасибо за развернутый комментарий.

Тема большая, конечно, наверное надо было поподробнее по некоторым вопросам пройтись, а то получилось, что для человека со стороны - это слишком общая информация, а для специалиста - слишком поверхностная.

Я уже не в первый раз слышу, что ИИ и ГА делают гениальные технические решения - но ни разу не слышу чтобы они пошли в производство!

Думаю это больше пока про штучные решения, где выигрыш в полезных показателях перевешивает непрозрачность дизайна. Пример - антенна, выращенная эволюционным алгоритмом в NASA и которая вошла в финальный дизайн миссии. К сожалению, антипримеров гораздо больше; возможно помните статью про схемы, которые подстраивались оптимально под существующее эм поле в лаборатории и меняли характеристики даже при повороте на столе.

Спасибо за интерес!

Я больше держал в голове классическую статью Эдриана Томпсона, который заложил основу современной эволюционной разработки микросхем ещё в 1990-х, когда применил эволюционный алгоритм к FPGA-чипам. Используя принцип «естественного отбора», он заставил плату самостоятельно научиться различать звуки частотой 1 кГц и 10 кГц.

В итоге эволюционировавшая схема оказалась гораздо компактнее любой, созданной человеком (её удалось свести всего к 37 логическим гейтам) и использовала множество физических особенностей конкретного чипа - от петель обратной связи и электромагнитных наводок между изолированными логическими блоками до, если не изменяет память, работы транзисторов за пределами режима насыщения. Поэтому статья стала мемом среди специалистов, задолго до эпохи мемов.

После начальных успехов люди в 90-х поняли, что быстрых успехов в этом направлении не будет, так как задача вычислительно неподъемная (по крайней мере для того времени). Поэтому на несколько десятилетий прогресс в этом направлении замедлился, пока в последние несколько лет не были достигнуты определенные успехи в оптимизации нелинейных систем с помощью нейронных сетей, что и составляет суть статьи коллег из Принстона и Мадраса.

Вот сама статья Томпсона. А вот немного попсовый обзор на английском.

Доля риска есть везде, и даже без ИИ. Значит надо делать новый институт гарантий, т.е. отдельную ветку в правовом поле, чтобы можно было применять эти технические решения в производстве. То есть делать оговорки типа "Гарантия ИИ и процент успеха от тестирования" А там конечный пользователь уже пусть сам учится складывать вероятности.

Думается мне, что проблема не в правовом режиме - а в выходе годного (это такой параметр на производстве), и в убеждении потребителей покупать результат. Ведь эти микроволновые штучки - их никто не покупает "шоб были" - их хотят поставить в условную станцию 5G, и получить хитрую комбинацию смесителя/делителя/whatever с минимальными потерями и максимальным SNR.

Теперь представьте - вы сотовая компания. Вам предлагают ужасно новую эффективную модель станции которая разработана ИИ - и аж на 20% лучше предыдущих - но вот беда, работает только в 80% случаев установки (почему - точно никто не знает). То есть - вы должны пободаться с местной властью чтобы вам дали землю и/или сервиут. Вы должны пободаться с местной сетевой компанией чтобы вам дали кабель питания (ха-ха, на самом деле вы пободаетесь чтобы вам выдали ТЕХУСЛОВИЯ - и вы кабель сами проложили и передали на баланс сетевиков, и тогда вас подключат от перегруженного трансформатора...). Вы должны убедить местных жителей что это не излучатель для зомбирования... В общем, вы делаете всю эту стройку - ставите станцию, и только в этот момент понимаете - сорвали вы джекпот, или надо все разобрать и попробовать в другом месте в другое время...

Скажите честно - вы на должности главного инженера согласитесь на такую авантюру - или погоните продажника ссаными тряпками - и потребуете старую модель станции которая да, похуже работает - но зато везде, где поставил!

Есть такая штука как мат.ожидание
Если устройство работает на 20% лучше (например имеет +20% покрытия), но имеет шанс не сработать те же 20% - ожидаемая эффективность будет 0,96 от эффективности стандартной станции. Так что статистически - это проигрышно

Однако если бонус покрытия будет +50%, при том же шансе не сработать в 20 - это уже даст ожидаемый буст эффективности в 20% с поправкой на риски - и для большой партии станций это окупится и выйдет в + с вероятностью стремящейся к единице

Согласен! Но статистика работает только на большом объеме. То есть, если на дворе, условно 1994 год - и вы собираетесь строить сеть из сотен базовых станций в стране только что вышедшей из стройки коммунизма, то на круг вам может оказаться выгоднее решение которое работает лучше, но не всегда.

А если вы занимаетесь текущим обслуживанием и модернизацией - то эта же статистика может работать и против вас! Вы можете привезти станцию в одно место - не сработало. В другое место - опять не сработало! А если оно не сработает в третий раз - начальники наверху могут не воспринять ваши выкладки из теории вероятности (что оно рано или поздно сработает и будет даже лучше чем было)... Уволить, прямо скажем, могут... под горячую-то руку...

   Вы должны убедить местных жителей что это не излучатель для зомбирования... 

"Все уже <s>украдено</s> придумано до нас! "Завтра, в 9 часов утра в вашем микрорайоне будет впервые включена башня аэробаллистической защиты от..."

следи за руками: ~~украдено~~ = украдено

А потом окажется, что это таки излучатель для зомбирования

...который программирует зомбей делать шапочки из люминиевой фольги

...который программирует зомбей делать шапочки из люминиевой фольги

Так это известный миф, очевидно внедренный рептилоидами - шапочка из любой кондуктивной фольги на самом деле работает как параболический рефлектор, собирающий и фокусирующий чипирующие лучи 5G непосредственно на межушном нервном ганглии, вызывая бокланопоцит и, в тяжелых случаях, быстро доводя развившийся или врожденный ФГМ поциэнта до терминальной стадии.

дык, на это и расчёт наверняка

«ФГМ» расшифровывается как «…Ганлия Межушного» в данном конкретном случае, что ли? =)

Да, вы правы. Заболевание серьезное, но современная медицина научилась справляться с ним, используя метод живительной эвтаназии.

Для оной, я полагаю, используется цилиндрическая (или в форме перевёрнутого конуса) ёмкость с дигидрогена монооксидом?

Для эвтаназионного эффекта потребуется слишком много оксида дигидрогена. Рекомендуется разбавлять его этанолом в пропорции 40/60

не сильно много: достаточно пары литров максимум (хотя может и стакана хватить)
там же главный ингридиент - это разность потенциалов

ёмкость с дигидрогена монооксидом

Это очень, очень опасное вещество. Насколько я знаю, умирали все, кто хоть как-то соприкасался с ним, не говоря уж о безрассудных попытках приема внутрь. Причем усиливает опасность то, что смерть часто наступает не мгновенно, большинство погибших имели контакты с этим веществом более одного раза, и поначалу не замечали необратимых, фатальных изменений.

Ещё 100% привыкание после первой же дозы и смерть примерно через неделю после последнего приёма.
Страшная вещь.

В общем, вы делаете всю эту стройку - ставите станцию, и только в этот момент понимаете - сорвали вы джекпот, или надо все разобрать и попробовать в другом месте в другое время...

А можно по другому - производитель привозит два варианта - инновационный и старого типа, проверенный временем. Если инновационный подошел - отлично, вы получили станцию с улучшенными характеристиками. Если нет - ставится проверенный временем вариант.

Вся же остальная обвязка - мачта, электопитание - вообще по сути стандартные и мало зависят от вешаемой антенны и "ящика с мозгами".

Мне кажется проблема скорее в том, что устройство работает на 20% эффективнее в 100% протестированных сценариев, но никто не может гарантировать, что в других условиях оно будет также эффективно или вообще не сломается. Что впрочем верно и для обычных, созданных живыми инженерами устройств.

Потому что повторить результат генетического алгоритма на конвейере не возможно.

Слышал версию что это давно известные специалистам паттерны проектирования. Но у них ровно одна проблема: они работают только в абсолютно чистой среде без наводок извне вообще. Любые внешние воздействия все ломают и они перестают работать или работают хуже обычных.

Поэтому в продакшен и не идут. Для реального мира не пригодны.

А главное, зачем вообще совать интерполяцию больших наборов данных туда, где лучше применима численная оптимизация.

ИМХО это все популярно, потому что дает вообразить машину, которая больше похожа на человека, причем социального. Где подражание другим, важность вайбов, а не логики, важность видимости, а не сути, и так далее. И есть еще немало философствующих особей, считающих, что реальность определяется восприятием. Буквально.

Никогда ведь не стоит отбрасывать магическое мышление и как оно влияет на прямоходящих обезьян.

Но тут такая штука, что для решения задачи желательно идти кратчайшим путем к решению задачи! И то, что сейчас зовут ИИ, заведомо более длинный путь.

С другой стороны, может быть, смысл в популяризации разработки, основанной не на понимании, а на подражании, даже в малом. Эдакая мечта получить силу из "Основания" Азимова, чтобы мир как-то работал и двигался на чистом подражании (этих "ИИ"), а понимание было уделом властителей сущего (которые формируют датасеты).

Но как много денег ни сожжешь, пытаясь разогнать эту часть индустрии, сложность задачи может быть много больше.

Ну, справедливости ради - интерполяция может иметь смысл. Например, в реальной задаче оптимизации - гиперповерхность целевой функции рассчитывалась по динамической сетке, и аппроксимировалась сплайнами. Потому что сплайны: а) сильно быстрее считать, б) непрывные производные. Но периодически вычислялись невязки между сплайнами и более точным (но более долгим) методом (а-ля конечных элементов), и алгоритм поддерживал не только одно "самое хорошее", а набор "сравнимых по характеристикам, но не очень похожих друг на друга" решений - для того чтобы можно было руками посмотреть куда его несет - и заставлять оптимизировать в области тех решений, которые понятны и работоспособны...

Но вот сплайны я понимаю - а ML не понимаю. Допустим, при проверке решения мы поняли что невязка между предсказаниями интерполятора и точной моделью - больше заданного эпсилон. В случае со сплайнами - я добавляю точку и пересчитываю сплайны - это выглядит как сгущение сетки вокруг области невязки. А что делать с ML ?! Мы же не можем делать ему цикл перетренировки - это же еще дольше чем просто считать значения без интерполяции!...

А можно же попросить суму неросеть попросить объяснить? И рассказать об ограничениях? И как она к этому пришла? Есть же сети, которые умеют объяснять свое поведение

Сеть не помнит своих мыслей, она работает на основании контекста. Поэтому объяснять решение она будет так как будто его в первый раз видит и соответственно объяснение может быть сколь угодно далёким от реального.

Ничего подобного! Я каждый день (ну почти) работаю в чатах с нейросетями, и большая часть из них очень даже хорошо объясняет результат, почему и как он получен. А в случае с "думающими" можно прямо сразу посмотреть "ход мыслей". Возможно, в случае с использованием тулчейнов объяснить и/или понять будет сложнее, но уж точно в рамках одной задачи нейросеть не потеряет контекст. Если сама архитектура применения LLM сложная, и с множеством итераций, где меняется в процессе и промпт - конечно, сложнее будет понять, откуда что взялось. Но так об этом надо было подумать на этапе проектирования.

Если это рассуждающая модель, или если вы просите рассуждать то часть мышления сети действительно отражается в рассуждениях.
Но в остальном те объяснения которые вы видите - это рационализация, ситуация аналогичная ситуации, когда человек сделал что-то автоматически, не осознавая а потом пытается объяснить почему он так сделал. В трансформере нет никакого механизма, который позволил бы сети помнить как она получила результат (например, какой-то кусок кода). Когда вы спрашиваете объяснения как это работает и почему сделано именно так, то сеть с абсолютно одинаковой эффективностью объяснит код который написала она и который написала другая сеть или человек. Т.е. может догадаться а может нет.

Что-то у вас магия какая-то в голове. Если процесс объяснения не зависит от процесса генерации, то это будет просто другой продукт генерации. А если зависит частично - продуцируются артефакты "мышления", которые по сути просто кусочки результатов из черного ящика, то там будут просто "галлюцинации" (не совсем) поверх.

Хорошим примером будет спросить сколько будет 5*5, а потом спрость как она получила такой результат.

Если решение получено через оптимизацию GA - они ничего не объяснят. Они просто сумели найти минимум целевой функции...

loophole

Это как на вопрос о наиболее дешёвом и калорийном питании ответить "3 литра уксуса". Случай известный ещё до этих ваших ИИ, ГА.

а разве не "25 стаканов какао с молоком"?

А если существует единственно правильное решение, найдёт ли алгоритм дип чип его каждый раз, когда будет поставлена такая задача? Если да, то это большой прорыв. Если нет, и алгоритм будет каждый раз придумывать новое решение, то становится ясно, почему люди не спешат изготавливать такие чипы.

С одной стороны - нет, не найдет. С другой стороны - если он находит вам решение в радиусе 95-98% оптимума за разумное время - чем вы недовольны ? Человек (в силу того, что он будет мыслить и строить решение из блоков) - скорее всего тоже не попадет в 100% оптимум в сколько-то сложной задаче... Проверено на логистах и транспортных потоках...

Тем что решение обычно надо дорабатывать через какое-то время. Фичу добавить или цену снизить или регулятору какому понравиться. При этом не ломая то что уже работает.

И тут появляются огромные проблемы.

Алюминиевый каркас, разработанный NASA на основе эволюционных алгоритмов

Лет десять назад видел ролик про подобные структурные элементы каркаса на экспериментальном внедорожнике. Говорили, что их параметры принципиально лучше, и скоро такие штуки будут применяться повсеместно.

Но несмотря на все успехи генеративного ИИ и 3Д печати, ничего похожего в обычной жизни я не вижу до сих пор.

Исключая случаи, где стоимость единичного изготовления имеет второстепенное значение по отношению к стоимости всей системы (например, космические научные спутники), до внедрения в ежедневные вещи чипам, разработанным ИИ, еще достаточно далеко (но конечно ближе, чем термоядерным реакторам, внедрение которых сдвигается на пятьдесят лет каждую пятилетку </юмор>).

На мой взгляд, идея здесь больше в следующем. Вот была игра Го, теорию которой человечество разрабатывало тысячелетиями. Нахождение оптимальной стратегии является численно невозможным. Но вот пришел Google со своей AlphaGo (старшим братом упомянутого AlphaChip, кстати), и за несколько лет ИИ-алгоритм эволюционировал до победы над самыми сильными игроками планеты. При этом, как и с разработанными ИИ чипами, тактика и стратегия игры AlphaGo казалась поначалу абсолютно непонятной. Но со временем люди изучили "мысленный" процесс AlphaGo, и поняли в общем, какие преимущество несет тот или иной ход в конкретной ситуации. Это дало развитие теории игры, которое эквивалентно сотням тысячам человеко-лет; повысило уровень и мастерство человечества, в общем.

Так и в разработке микросхем, ученые видят, что ИИ алгоритм дал хороший буст по характеристикам, но не совсем понятно как. Сейчас надо набирать большее количество ИИ-дизайнов и референсов, что и авторы делали в цитированной статье, где они синтезировали однопортовые многодиапазонные антенны, двухпортовые полосовые фильтры, трёхпортовые делители мощности с заданным фазовым соотношением, гибридный ответвитель с квадратурой фаз, трёхпортовые частотные дуплексеры и прочее. И пытаться понять логику за решениями ИИ. Это, в целом, продвинет текущее понимание дизайна на новый уровень, и поможет в ближайшем будущем создавать более эффективные схемы, которые уже будут понятны нам.

Ну все-таки мне не дает покоя мысль: игра (даже сложная игра - как Го) - это чисто искусственный конструкт с хорошо определенными правилами. То есть, про каждое состояние поля - вы можете сказать, допустимо оно или нет, и в какие состояния правила допускают ему перейти. Не может быть в игре Го такого, что если ваша шашка встречает при движении на доске трещину в лаке (больше чем диаметр) - то шашка разворачивается и идет в обратную сторону... А СВЧ-сигналу отразиться от неоднородности на микрополоске и поехать обратно (попутно интерферируя самому с собой) - как два пальца об асфальт...

-сигналу отразиться от неоднородности на микрополоске и поехать обратно

Но ведь такое может быть в реальном девайсе, спроектированном как людями, так и нелюдями... Разница лишь в том, что человек-разработчик может найти причину, а в разработанноми ИИ - хн разберешься... Но с другой стороны, если "неоднородность" - технологический брак, а в целом схема работоспособна - то проще выкидывать бракованное, чем чинить.

Ну я об этом и говорю - блоки из которых разработчик строит систему - как правило уже проверены и известно при каких условиях они работают, и какой будет выход годного. И мы надеемся что пока блок сильно не меняют - эти характеристики более-менее остаются.

А алгоритм (если он учится сам с собой на математической модели) - сделает оптимальное решение, верное только в границах этой модели. В случае с игрой Го - модель игры 100% верна в реальном мире (трещина на лаке не оказывает никакого влияния на игровой процесс - и игнорируется). Но в случае с электромагнитным полем - оно так не работает...

до внедрения в ежедневные вещи чипам, разработанным ИИ, еще достаточно далеко

Вот я и говорю не про микроэлектронику с её квантовыми эффектами и ещё хрен знает чем, а про простейшие каркасные элементы, для серийных вещей типа автомобилей или мебели, которые должны выдерживать некий заданный набор нагрузок и вибраций, имея вес и стоимость поменьше. Вроде бы такая задача современным ГА и средствам производства должна быть вполне по плечу, но в реальности их не видно.

Средствам производства не особо. Ну, задают проектному модулю цель "обеспечить максимум выдерживаемой нагрузке с минимальным расходом материала". Модуль проектирует что-то вот такое:

Технолог смотрит на это и говорит "Так, ну, проблема решаема, но тут нужен 3D принтер металлом с поддержкой или литьё по выплавляемым моделям." Экономист считает цену серии и приносит директору. Директор с изменившимся лицом бежит к пруду инженеру и говорит "Так, бросай свои выкрутасы и возвращай старую сварную раму, мы материалоёмкость, конечно, втрое снизили, зато теперь производство дороже в десять раз".

Вот это типичная проблема целевой функции. Теоретически, было бы неплохо чтобы целевая функция была выражена прямо в терминах стоимости партии и возможного объема производства (зачем вам оптмум который достигнут при выпуске 100 тысяч единиц в месяц, если у вас заказчики дай бог тысячу выбирают - или наоборот!).

Но - добро пожаловать вам построить такую целевую функцию, и добро пожаловать вам в ней не потерять индивидуальные компоненты типа материалоемкости...

мы материалоёмкость, конечно, втрое снизили, зато теперь производство дороже в десять раз

Материалоёмкость, сниженная в три раза - это вес, сниженный в три раза. Например, при производстве дронов за такое стоит хорошо доплатить.

И толковый директор должен бы собрать инженера, технолога и экономиста и сказать - поиграйтесь-ка с настройками задания, чтобы был заметный выигрыш в весе за разумные деньги.

Ага. А еще при использовании в реальной жизни от случайного удара который старую сварную раму только поцарапает - на этом ажуре ломается/гнется эта тоненькая красота и общая прочность падает в разы. И грязюку, которую в этот ажур забьется, отмывать - всё на свете проклянешь...

Ну так, запроса же не было на ударостойкость и незагрязняемость )

Можно было это все неросети задать в промпте же

Вот именно. Когда например задали запрос нейросети создать какой-то там чип или антенну или что ещё - кто мешал дополнить запрос типа "для каждого применяемого решения (или части решения) нужно выдать объяснение и доказательство, что это решение подходит и лучше других". Это я очень упрощённо написал, в конкретных случаях надо формулировать более точные запросы, и тогда будет результат и объяснение почему именно так и как оно работает.

Да вы, батенька, ретроград!

Удар - случай негарантийный, покупайте новую раму. Производитель счастлив и доволен, государство получает налоги, металлурги плавят металл, горнодобытчики копают руду. Или вы хотите на одном велосипеде/мотоцикле по 20-40 лет ездить? ;)

или на шестисотом с вечной пепельницей

или на шестисотом с вечной пепельницей

Не сразу понял, что вы про Мерседес курильщика versus S63 AMG здорового человека.

я про нового русского, который покупал новый мерс потому что пепельница в старом заполнилась

Это известный анекдот, но я не курю, а значит мне машины обычно хватает на дольше. :)

Вот придёшь ты к врачу, а он даже посоветовать бросить курить не сможет.

Получается, в моем случае медицина бессильна.

она ещё бессильна, когда пациент очень хочет жить =)

Для боевого дрона - это может быть быть допустимо.

Разве что для дрона мирного времени. Когда можно годами пилить ниокры на на аналоговнетные изыски...

У лаборжини детали подвески печатают на принтере, что-то похожее

А если идти от обратного? Делаем модель станков или технологической линии, присваеваем каждой операции, каждой секунде работы станка и грамму материала какую то то стоимость. Далее берем существующую деталь, вводим в модель ее стоимость и прочность и даем задачу сделать деталь большей прочности и меньшей стоимости от эталона с разбивкой по этапам. Повторяем N раз, смотрим что получилось, смотрим как поэтапно модель предлагает сделать эту деталь, если какой то этап нас смущает - запрещаем кокретную операцию и запускаем снова.

Проблема ведь не в модели. Она выполнила задачу так как она поставлена - создать максимально прочную деталь. А правильное ТЗ в данном случае - создать максимально прочную деталь имеющимися средствами

Нахожу ироничным что жестянки тыкают человеков носом в то что чаще всего меня раздражает в людях "я этого не сказал потому что это же и так понятно" - нет, б.., не понятно!

Жестянки тыкали его носом даже ещё когда их не было (ну или они ещё не были жестянками).
Это правила создания алгоритмов, собственно. В том числе для работы механизмов даже.
«Энциклопедию профессора Фортрана», где он воробью про них пояснял не читал, что ли?

Может таки научат лысых бибизян, что правильная формулировка важна. Хотя раз за тысячи лет не научились, то и сейчас далеко не факт, что получится.

Но вот пришел Google со своей AlphaGo (старшим братом упомянутого AlphaChip, кстати), и за несколько лет ИИ-алгоритм эволюционировал до победы над самыми сильными игроками планеты.

Сейчас это несколько часов-дней на суперкомпьютере. На топовой видеокарте, которую можно просто купить в магазине - несколько месяцев (согласно тому, что написано по KataGo):

As a result, early training is immensely faster than in other self-play-trained bots - with only a few strong GPUs for a few days, any researcher/enthusiast should be able to train a neural net from nothing to high amateur dan strength on the full 19x19 board. If tuned well, a training run using only a single top-end consumer GPU could possibly train a bot from scratch to superhuman strength within a few months.

Так не могут понять как это работает, потому что думают жопой, а не головой) королев например без всякого ИИ все понимал, почём на бумаге и все работало)

Аналогично. Читал статьи про это лет 15 назад. Потом узнал , что такие штуки собрабися чисто в прошковой металлургии и служат до первого дефекта в партии. Но если в "стандартных деталях " есть запас прочности, то в результате алгоритма нет, любой дефект, и деталь взрывается при нагрузке.

Но если в "стандартных деталях " есть запас прочности, то в результате алгоритма нет, любой дефект, и деталь взрывается при нагрузке.

Алгоритмом вы точно так же можете спроектировать деталь с любым желаемым запасом прочности (в пределах возможного, конечно). Хотите запас 1,1 - будет вам запас 1,1. Хотите 20 - будет вам 20, если материал позволит.

А баба-яга технологи против. Такие вещи к массовому производству не готовы и все

ну если идея стоящая - технологии подтянутся. Так-то когда-то в ламповые времена технологии и к полупроводникам были не готовы

Основная проблема в том что такие детали делаются при помощи 3D принтера. Это нормально для штучного и мелкосерийного производства, но плохо для текущих средств массового производства. В итоге стоимость высокая получается.

В аэрокосмосе их используют точечно, но для гражданского применения нужны десятки лет стандартизации

Эволюционные алгоритмы - это немного не искусственный интеллект, мне кажется. Это отсутствие интеллекта вообще. Оптимизированный брутфорс, но он может создавать удивительные по сложности вещи (нас например или цианобактерий). Методом перебора можно и разложение на простые множители чего угодно получить. Но можно и не получить, вот в чём вся беда

Как говорил мой дедушка Ирико "Так можно получить или фигню, или не фигню - но потом никто не скажет, что это было"

Все так это брутфорс направленный на поиск ближайшего локального минимума.

а нейросеть это по вашему что?? тоже птимизированный брутфорс

Скорее алгоритмическая эволюция, чем интеллект

Думаю что не корректно эволюционные алгоритмы называть "брутфорс". Полный перебор мог бы занять миллионы лет для задач, которые через ЭА решаются на порядки быстрей. И модель в процессе обучения "запоминает" некоторые удачные закономерности и потом использует их.

Да, есть некоторые общие признаки с брутфорс есть. Но можно ли нашу голову назвать планетой - ведь она тоже сферической формы, как и Земля?

голова имеет настолько же сферическаую форму, что и груша
впрочем наш шарик так же

Вот смотришь на промышленные поделия инженеров. так и хочется выкинуть половину того что они там напроектировали. Во многих случаях так и получается, всё работает без вычурности. ИИ это "видит" и сразу проектирует рабочий вариант. А доморощенный Кулибин по сути переделывает поделие инженеров, поэтому они похожи на обглоданные поделия инженеров, а ИИ делает то же самое, только "по своему". Ему плевать на правила и кучу компромиссов для проверяющих и сертификаций и на эстетику. И это работает..

Работает, но никому не нужно. Потому что не пройдя проверок и сертификаций, на рынок оно не попадет.

Иишный текст видно с первых строк. Как надоело, вот серьёзно. Неужели нет пяти минут вычитать текст и подправить? Хотя зачем, действительно.

ИИ сгенерировал рабочие топологии для микросхем миллиметрового диапазона - буквально «чертежи» сложных пассивных структур и широкополосных схем. И самое интересное: метод делает это за считанные минуты, тогда как раньше на такой проект уходили недели.

Судя по описанию, "учёные Принстонского университета и Индийского технологического института в Мадрасе" переизобрели метод Монте-Карло

Если брутфорс не помогает вам решить задачу, значит использовали недостаточно брутфорса.

В прошлом веке преподаватель нашего вуза выдал "задачу мы собираемся решать с помощью грубой силы. С помощью студентов". Смысл фразы я тогда не понял, слово "брутфорс" еще не слышал. Лицо доцента было серъезным. Там что-то тоже было про множество участников и много тупой работы типа численных методов.

Где-то я это уже читал год или два назад

Этой теме уже лет десять как минимум, просто каждый раз все эти красивые конструкции упираются в технологов, которые не знают, как такую прелесть изготовить.

как такую прелесть изготовить

Перефразируя известного скульптора: берешь слиток титана и отсекаешь лишнее. :)

Такие детальки, как эти кронштейны NASA, в принципе не проблема сделать уже давно. Программкам вроде Creo Simulate уже 100 лет в обед. Делаешь деталь обычным способом, закидываешь её в симуляцию, задаёшь нагрузки, получаешь тепловую карту и сразу видно, где можно убрать, а где нарастить. Итоговую форму могут сделать чуть менее вычурной ради большей технологичности. В современных автомобилях можно найти множество похожих деталей

в принципе не проблема

В принципе - да, не проблема. А в массовом производстве - проблема, непреодолимая. Но вы это прямо пишете:

Итоговую форму могут сделать чуть менее вычурной ради большей технологичности.

Я просто хотел сделать особый акцент на этом.

Смысл же тут, мне кажется, в том, что моделирование и оптимизация модели делается не разработчиком с помощью специализированного софта, уже во многом автоматизирующем оптимизацию, а полностью автоматизируется, что позволяет за разумное время перепробовать намного больше ветвей "а что, если" - и, чисто статистически возможно, получить более контринтуитивный, но технически лучше оптимизированный результат.

Контринтуитивно оно только для обывателя. Уже для студента, умеющего рисовать эпюры, такая деталь выглядит абсолютно логичной.

Что касается технологичности и массовости, между условно квадратной и "бионической" формой детали находится баланс между выигрышем по массе и проигрышем по цене. Условно минус 20% массы может дать +5% к цене, и минус 30% массы уже даёт увеличение цены вдвое, поэтому останавливаются на -20%. И в массовом производстве это используется повсеместно.

инженеры не могут до конца понять, почему

СВЧ-магия!

От знакомых платоделов слышал, что и человеческие дизайны под СВЧ тоже за такие считаются, ибо есть всякие варианты, когда оно работает, но никто не понимает почему.

Я такой электрический звонок делал в 1998 году, на транзисторах типа МП38/42, трансформаторах и хз чём ещё. Это было всё на каких-то соплях, и при малейшем изменении деталей звук резко портился (хотя этот в целом простой мультивибратор выдавал довольно замороченную интересную мелодию длиной около 20 секунд). Спустя пару десятилетий (звонок всё ещё работал) я решил переделать это всё в более приличный корпус и на новую плату с теми же деталями - но часть пришлось заменить, тупо ножки отломились. И в целом получилось, однако звук отличался уже немного. А ещё через несколько лет что-то там сдохло - но я уже не помнил ни схемы, ни где её брали, и в целом звонком уже никто и не пользовался (кому надо - на сотовый позвонят).

Вот была штука - работает, но повторяемость нулевая практически.

Например сопротивление резисторов, ёмкость конденсаторов и/или коэффициент усиления транзисторов поменялся немного и частоты в схеме - тоже, соответственно.
Схема же аналоговая (и без регулировки была, скорее всего).

Да, некоторые конденсаторы видимо были другой емкости (старые скорее всего высохшие ещë тогда были). Подстроечник один был в схеме, может там тоже что-то сдвинулось.

Это очень напоминает эпоху SPICE-моделей 70-х, когда тоже сначала пользовались, а потом разбирались в физике явления. Только теперь масштаб выше на порядок

На фото , где алюминиевый каркас, антенны очень напоминают фильм терминатор 2, где из жидкого металла робот Т-1000. Ближняя фигурка стоит скрестив руки прикрывает уцелевшую от прострелов часть ниже пояса. ))

Старая очередная "желтуха"

Вообще-то для этого ИИ не обязателен. Это старая добрая численная оптимизация, методы которой разрабатывались давным давно. Но ИИ это близкий родственник численной оптимизации - обучение ИИ это продолжение алгоритмов оптимизации. Он и вырос на её плечах. Так что да, он это умеет.

Главный вопрос не в том, сможет ли ИИ спроектировать чип, а в том, кто потом будет объяснять, почему он вообще работает

вряд ли это главный вопрос. объяснять будет ИИ. А вот поймёт ли его кто-либо с ЕИ - не известно

Важнее другой вопрос. Когда и в каких случаях он НЕ работает.

Sign up to leave a comment.

Articles