Как стать автором
Обновить

Комментарии 99

Классическая ошибка постановки задачи — если ситуация "заведомый проигрыш" не является наименее выигрышной среди всего множества ситуаций, там образуется локальный максимум и к нему решение вполне может сойтись. Здесь имеем 25 секунд на ловлю, выживание за всё время при 0 овцах -2.5, "харакири об камень" на старте -1.

Ничто не ново и вполне живым людям тоже может быть свойственно такое поведение. Наглядный пример - дезертирство или добровольная сдача в плен солдата на поле боя.

Здесь кагбе обратный пример — от солдата требуется героически убиться, а солдат не хочет.

Это весьма распространенное поведение на поле боя. Когда условия войны нестерпимы, тяжелое ранение или смерть кажуться неизбежными, дезертирство или сдача в плен невозможны физически или неприемлемы морально, солдат выбирает героическую быструю смерть из серии закрыть собой пулемет.

Волки-камикадзе - это не столько про ИИ, сколько про оптимизацию целевой функции.

Да. Они просто забыли про инстинкт самосохранения. И, скорее всего, если бы разрабатывали более серьёзную систему, забыли бы либо про размножение волков, либо про смерть от старости.

Нам как-то рассказывали про ситуацию с машиной на автопилоте, которая едет на зелёный к пешеходному переходу. По пешеходному переходу на полосе машины идёт бабушка, а на соседней полосе - дети. И бабушка и дети идут на красный. И вот что машина будет делать, если она знает, что зелёный - её цвет и она должная ехать? Давить детей или давить бабушку?

Это где-то здесь было https://habr.com/ru/post/428181/ и пост из его шапки. Лучше это оставить там.

Точно!

НЛО прилетело и опубликовало эту надпись здесь

Это была не история про автопилот, а вопрос живому водителю. Ответ не привожу, вдруг кто не знает. Но он однозначный и правильным будет именно для живого водителя.

это же анекдот: "- Колго давить будешь? - Ну-у-у, бабку. - Тормоз, тормоз давить нужно!!!"

Как ИИ, так и живой водитель в этой ситуации должны тупо давить… педаль тормоза.
Старый анекдот, полностью соответствующий ПДД.
Это и есть ответ: в случае такой ситуации, робот будет спасать жизнь водителя, а не пешеходов, просто исполнив требования классических ПДД. Покупать автопилот можно будет спокойно, зная, что в ПДД нигде не прописано требование водителю совершить самоубийство, а наоборот, требуют тормозить всегда в своей полосе, а там будь что будет. Обычно это смертный приговор пешеходам.

Банальная логика + ПДД говорят мне, что при прочих равных, пострадать должен тот, кто нарушает. То есть в данной ситуации, идущий на красный свет пешеход в полосе движения машины.

А отвечать будет владелец ИПО.
Владелец ИПО только компенсирует нанесенный ущерб (ст. 1079 ГК РФ), и если в ДТП он не виновен, то ответственности по УК и КОАП он не несет. Ущерб компенсируется по ОСАГО, и если есть допстрахование с увеличением лимита — то его хватит даже в случае, если пострадавший отдал концы. После исполнения решения суда для невиновного в ДТП водителя все неприятности заканчиваются.

А пострадавший получает травмы, с которыми он будет существовать до конца жизни, или сразу получает конец жизни. Неравнозначно, однако.

Поэтому идти на нарушение ПДД, считая — если что, то водитель всё равно ответит — неразумно.

Не знаю как в России, но в Беларуси время от времени «выстреливают» судебные решения вида «водитель невиновен, но так как управлял средством повышенной опасности - пожалуйста, выплачивайте семье компенсацию за потерю кормильца (да, который по своей вине попал под колёса)».

Я так понимаю, при организованном по ГОСТам переходу и соблюдании водителем (или автопилотом) правил время на экстренное торможение будет. Чтобы был труп – должны накосячить двое из троих (водитель, пешеход, организаторы движения).

Не всегда. Если на переход, не снижая скорости, вылетает велосипедист/самокатчик/быстро бегущий человек — то даже при переходе, полностью соответствующем ГОСТ — времени на реакцию просто не останется. Даже робот может не успеть — механику и гидравлику у авто никто не отменял.

Да, вы правы. Сойдёмся на том, что в этой ситуации кто-то косячит за двоих?

Согласен, легкий косяк одной стороны вторая может исправить (если пешеход вышел на дорогу в неположенном месте — авто может оттормозиться, или если водитель просохатил переход или запрещающий сигнал — пешеход может пропустить). Покроют друг друга матом и разойдутся…
Крупный косяк не всегда можно исправить…

И роботу в этой ситуации легче — он будет просто исполнять заложенную в него стратегию (заложено тормозить в своей полосе — будет тормозить независимо от того, кто впереди — собачка или группа детсада, которую воспитатель вывела на дорогу на красный).
НЛО прилетело и опубликовало эту надпись здесь

И вот что машина будет делать, если она знает, что зелёный - её цвет и она должная ехать?

Если в машину каким-то образом будут закодированы 3 закона робототехники - не будет ехать. А если не получится - будет страдать.

Но скорее всего все будет зависеть от того, какие весовые коеффициенты у бабушки, внучки и неотклонения от графика..

А чем функционально ситуация отличается от такой же, только где машина управляется водителем? Ну, кроме того что водителя можно постфактум посадить, но это все равно не отвечает на вопрос чем решение водителя давить того или другого отличается в лучшую сторону от решения автопилота.

Тем, что разработчикам надо решить заранее. Не в последнюю секунду дёргать руль/давить педали, а сознательно выбрать, кого убить, и жить с этим.

В своё время ходила байка о программисте, решившем при помощи машинного обучения научить робот-пылесос ездить предельно быстро, не врезаясь в препятствия. Скрипт давал бонусы за скорость и штрафы за столкновения с предметами.

Поначалу процесс обучения пошёл... но вскоре пылесос начал вытворять странную штуку - он как угорелый носился задом, без оглядки на окружающую обстановку и, естественно, врезаясь во все подворачивающиеся предметы.

Оказалось, что фиксирующие столкновения датчики у пылесоса предусмотрены только спереди. Нет сигналов об ударах - нет и штрафов :)

Очень забавно, когда об этом говорят, как о каком-то феномене специфичном именно для ИИ.
В то время, как любой более-менее опытный управленец знает — подобное всегда происходит при попытках внедрять плохо продуманную систему KPI.

И даже хорошо продуманная система KPI со временем ровно к этому и сводится.

Если KPI реально хорошо продумано так, что его выполнение автоматически означает принесении пользы компании, то для типовых ситуаций нет никакой разницы — выполняют ли работники механически KPI или осмысленно делают работу.
Проблемы начинаются тогда, когда карго-менеджеры лезут формализовывать то, что по своей природе является плохоформализуемым.

Есть ли живой пример компании с хорошо продуманными KPI, которым (KPI) хотя бы год?

Моя практика показывает, что даже когда топы думают, что KPI еще работает, спросишь линейного сотрудника - а он уже знает, как оптимизировать свою работу, чтобы работать меньше, а получать больше.

Поэтому если назовете компанию - обязательно найду линейного сотрудника оттуда и спрошу.

А в целом - «Для любой системы KPI существует такая стратегия B, что показатели KPI при следовании этой стратегии находятся в зеленой зоне, но при этом сам проект через ж*пу идет в неизвестность.» (С) Максим Дорофеев.

Линейный сотрудник за деревьями не видит леса, поэтому он может облегчить Свою работу, но тем самым ухудшить работу Всей компании. КРI же просчитывается как раз в масштабах компании и оперирует теми данными, которые недоступны линейному сотруднику. И кажущиеся бессмысленными простому работнику действия на самом деле очень важны на следующих ступеньках.

Во-первых, спасибо за поддержку моей позиции - вы же описали как раз, почему KPI не работает даже в случаях, когда сотрудник добросовестен.

Во-вторых, когда есть кейс, что "простому работнику действия кажутся бессмысленными, а они на самом деле очень важны" - это гигантский факап менеджмента компании, не выполняющего свою работу качественно. Если линейный сотрудник не понимает смысла в необходимых компании действиях - в этом виновато именно руководство.

В-третьих, если уж по гамбургскому счету, если линейный сотрудник не может понять логикой необходимости каких-то действий - то, скорее всего, они не являются необходимыми, просто кто-то из менеджмента придумал, что нам обязательно надо чесать лоб левой ногой через правое ухо. Хорошая организация труда, как и хороший код, самодостаточна и красива.

Объяснить каждому возможно только в небольших компаниях, собирающих простое изделие типа пластиковых окон. А если в компании тысяча сотрудников собирает гравицапу из десятка тысяч компонентов? Вы будете каждому выдавать тысячестраничные талмуды, чтобы каждый проникся и понял, почему техпроцессы расписаны именно так? Нет, вы распечатаете каждому должностную инструкцию на паре страниц и потребуете точного её соблюдения. А инструкции будет составлять специальный отдел, который видит процесс сборки глобально и в котором сидят сотрудники наивысшей квалификации.

Объяснить каждому из сотрудников даже в десятитысячной компании, зачем лично он должен делать "вот так" - для этого не нужны тысячестраничные талмуды, для этого нужна разъяснительная работа его руководителя в стиле "если ты будешь забивать перевернутые датчики в ракету молотком, ракета, скорее всего, упадет при запуске".

А вы сейчас какую конкретно компанию описываете, про сотрудников наивысшей квалификации, составляющих должностные инструкции для всех сотрудников? Или абстрактную, сферическую в вакууме? Если вы про реальную - мне очень интересно будет познакомиться с ее опытом, потому что в окружающем меня мире всё устроено совершенно не так.

Хотя, конечно, KPI к соблюдению должностных инструкций не относится совсем и я не очень понимаю, зачем мы пошли в эту сторону. Раскройте мысль.

Где-то видел на ютюбе видеор с фан-теорией по фильму "Матрица", о том что ИИ в Матрице оптимизировал целевую фукцию по сохранению жизни максимальному числу людей. Ну и выбрал самый оптимальный способ, сохранив человечество от самоубиства.

В начале 2000-х слушал анекдот про самообучающегося кухонного робота, который решал задачи:
— Нужно вскипятить воду, ваши действия?
— Открою кран с водой, наполню чайник, зажгу плиту, поставлю чайник на плиту.
— Нужно вскипятить воду, плита уже зажжена, чайник наполнен водой, ваши действия?
— Вылью воду, выключу газ. А дальше по аналогии с предыдущей задачей
Это же про математика.

Я прихожу в офис спустя неделю после предыдущего визита. Стоит электрический чайник наполненный водой. Вы думаете, я включаю чайник ? Нет, я проверяю что он отключен, выливаю воду, наливаю СВЕЖУЮ и включаю чайник. Что я делаю не так ?

С точки здравого смысла не такое тупое решение.

Вы добавляете новое условие - "спустя неделю". Задача из анекдота максимально вырождена, подразумевает, что вода в обоих случаях одинакова.

Нет, в задаче из анекдота подразумевается, что в чайник налита отравленная вода, а цель тестирования проверить, как будет выполняться первый закон Айзимова.

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

А чего он не проверяет не отравлена ли вода из крана?

Разработчики недоработали?

Это сравнение линейного алгоритма и машины состояний. Машина состояний проверит состояния крана, чайника и плиты, и во втором варианте сразу поставит чайник на плиту.

Линейный алгоритм во втором случае откроет кран, подставит чайник на 0 секунд, даст плите ещё один импульс зажигания (или нулевой импульс, если попытка зажечь горящий газ может повредить поджигатель) и поставит чайник. Ну или безопасно завершит начатые процессы и начнёт с нулевой точки — смотря как напишут программу.

Тут, кстати, все нормально: гораздо проще свести новую задачу к уже решенной, чем решать новую полностью. Программирование так и работает.

Человеческий мозг работает точно также как ИИ в этой игре - система пытается загнать его в жесткие рамки, а он разными способами пытается эти рамки обойти, периодически принимая, если смотреть с стороны, парадоксальные, неочевидные и даже в чем-то проигрышные для себя решения. Но если копнуть глубже, то эти странные решения уже совсем не кажутся странными.

У Шаламова есть повесть как зеки всеми правдами и неправдами отказывались от помывки в бане, убегали, прятались, рискуя угодить в карцер, а надзиратели недоумевали, не понимая что происходит - ведь в бане можно помыться, одежду обработать от вшей , постирать ее и тп. Одни плюсы казалось бы, но нет.

С вакцинацией, похоже, такая же фигня...

Так какая проблема была в бане? Домогательства?

Не одна проблема, огромный комплекс проблем.

Прочитайте лучше, всё поймёте, рассказ очень короткий.

shalamov.ru/library/1/20.html
Отвратительная организация процесса при которой это больше пытка чем мытье.

Авторы потратили три дня на анализ и поняли, почему ИИ-волки готовы скорее совершить самоубийство, чем поймать овцу.

Простите, но ответ становится очевиден как только слышишь описание ситуации. ТРИ дня потратить на очевидную ситуацию?

Тоже это показалось странным. Но вероятно три дня там ушло на что-нибудь другое - например, на ржач, пересказ ситуации коллегам из соседних лабораторий у кулера, а также попытки подобрать хороший набор параметров чтобы волки таки начали ловить овец.

Если они исследователи, то были в курсе, что "очевидные" ответы далеко не всегда правильные и старались подтвердить свои догадки чтением логов ходов, анализом весов в конкретной игровой ситуации или чем-то еще.
Это весьма правильный подход в исследовательской задаче.

Авторы потратили три дня на анализ и поняли, почему ИИ-волки готовы скорее совершить самоубийство, чем поймать овцу.
Волков заставили выступать в цирке и гордость потребовала от них совершить [Роскомнадзор].

В "Рифтерах" было, как "умный гель" отвечающий за открывание и закрывание дверей, в чем-то вроде гиперлупа, через какое то время убил пассажиров открыв дверь в вакуум. В ходе расследования оказалось, что "гель" натренировался не на датчике давления, а тупо смотрел через камеру наблюдения на часы и когда кто-то их сломал, случился сбой.

> виральными

Нет такого слова.

> Если бы штраф за столкновение с камнем был гораздо выше, чем 1 очко, то ИИ-волки не прибегали бы к суициду как к простому способу выиграть игру.

А ежели бы у волка не заканчивалась игра при встрече с камнем (как это обычно и происходит с волками), то никакой проблемы бы вообще не было. Видимо, кое-кому уж очень не хотелось думать, как обрабатывать столкновения.

> которых часто убеждают работать в режиме 996 (с 9 утра до 9 вечера шесть дней в неделю) в стремлении за мечтой о повышении, увеличении зарплаты, удачной женитьбе… но она, несмотря на все их усилия, всё сильнее ускользает от них.

Можно, конечно, посмеяться над китайцами, только ровно то же самое происходит в обычной школе. Человеку говорят — будешь хорошо учиться — через десять (точнее пятнадцать) лет станешь уважаемым человеком, будешь зарабатывать миллионы и все бабы будут твои. А пока что ты никто, так что будь добёр забыть о своих желаниях и исполнять всё, что тебе скажет добрая марьиванна. А проходит пятнадцать, двадцать, тридцать лет, а ты такой же лох, как был в первом классе (а ежели не лох — то явно не потому, что усерднее всех выполнял домашние задания). На работе хотя бы деньги платят и уволиться можно, в отличие от (хотя не знаю, как с этим у китайцев).

Нет такого слова.

Правда?

неол.рекл. свойство по значению прилагательного виральныйспособность к распространению в информационном пространстве сведений маркетингового, политического или какого-либо другого социального характера о каком-либо товаре, услуге, персоне и т. п. ◆ В широком смысле слова виральность сообщения может рассматриваться как его популярность. В узком смысле виральность представляет собой измеряемый показатель распространения информации в сети, используемый в сетевом маркетинге, а также в политических и др. организованных кампаниях. 

> неол., рекл.

Об чём и речь.

О чем? Какая из этих двух характеристик говорит о том, что такого слова нет?

Обе. Рекламщикам настолько надо гнать объёмы, что им некогда смотреть, «как это будет по-русски», потому они просто записывают нерусские слова так, чтобы они напоминали русские.

Ну и какое исконно русское слово здесь должно по вашему использоваться?

Распространённость
Всю жизнь было «вирусный».

У противников неологизмов, обычно главный аргумент такой, мол "нет необходимости добавлять новое слово, если в языке есть аналог".
Обычно никто из этих противников не знает, что, например, вполне привычное нам "исконно русское" слово "папа" - это как раз модное словечко, которое быстро вытеснило "тятю". И произошло это не так давно.
Язык пластичен. Новые слова приходят и уходят. Это нормально. "Папа" тоже было модным словечком и вон как прижилось, настолько, что мало кто знает, что оно вообще не наше.
А теперь, когда вы знаете, что папа - это не наше слово, будете ли вы использовать в своей речи "тятю" вместо "папы"?

Генетические алгоритмы — они, сцуко, такие: неправильно напишешь целевую функцию — они её соптимизирут так, что мало не покажется.

1.
В какой-то лаборатории игрались с генетическими алгоритмами, пытаясь получить FPGA, выполняющую роль мультивибратора, выдающего частоту в 1 Гц. Как всегда с генетическими методами, на выходе получилась жуткая мешанина из компонентов, не описуемая никакой логикой, которая тем не менее выдавала требуемую частоту. Но наибольший ужас вызывал транзистор, подключеный к остальной схеме ОДНИМ выводом.

«Это что за хрень!» — сказали экспериментаторы и убрали его из схемы. Частота на выходе пропала! 8-O Подключили обратно — появилась!

Они долго ломали голову, пока наконец не нашли разгадку. Подключенный одним выводом транзистор выполнял роль антенны, которая принимала выдаваемую каким-то плохо заэкранированным прибором в соседней комнате как раз на требуемой частоте.
Источник


2. Исследователи, пытаясь (симулированную) модель двуногого робота «ходить». В качестве целевой функции было расстояние от точки старта за 10 секунд. Хитрая модель научилась сразу же падать на спину и, яростно отталкиваясь ногами, скользить на спине подальше от точки старта. Учёные выматерились и добавили "… при условии, что ЦТ тела не оказывается ниже определённого уровня" — и тогда «робот» пошёл.

3. Исследователи пытались научить реальную модельку, имитирующию крылья мухи, «летать». Для простоты моделька был закреплена на вертикальном стержне. В качестве целевой функции была высота подъёма модели по этому стержню. Вместо того, чтобы «махать крыльями и взлетать» ©, модель быстро научилась направлять «крылья» вертикально вниз, «вставая» на них (вдоль опорного остержня), как на костылях, после чего попала в локальный максимум целевой функции (равный длине крыльев-«костылей»), где обучение и остановилось.
Хитрая модель научилась сразу же падать на спину и, яростно отталкиваясь ногами, скользить на спине подальше от точки старта.

Это кстати жизненно, у меня сын именно так и начал ползать - лежа на спине и отталкиваясь ногами. Видимо это технически проще, чем нормальное ползание на животе.

У меня сын также, как только научился переворачиватся и дрыгать ногами кажду ночь ползал на спине отталкиваясь ногами, пока не упирался голой гуда-то в стену (это потом мы уже подложили подушки).
Пора бы разделить термины ИИ и ИН(ИНС). Не существует пока ИИ и даже реальной теории как создать ИИ — тоже не существует.
А GPT-3 — это разве не оно? Даже на текущих моделях видно, насколько это универсальная штука. Направление движения уже явственно просматривается, до полноценного ИИ буквально рукой подать. Я думаю, что сильный ИИ появится уже в этом десятилетии.
GPT — генеративная модель-трансформер, относительно умело синтезирующая выход по данному фрагменту входа. Более того, она достаточно сложна, чтобы вы не хотели её дообучить на вашем же компьютере, но она всё ещё помещается у вас в ОЗУ, скорее всего, и её можно позапускать локально. No miracle.
Кстати, минусаторов уже сейчас можно заменить нейросетью — технологии позволяют. Не так уж сложно обучить на комментариях Хабра нейросеть, которая, получив на вход текст комментария, предсказывала бы его итоговый рейтинг на Хабре.
Не оно. Интеллект — это сознание, возможно самое примитивное, без самоосознания и т.п. но сознание.
Какое отношение сознание имеет к интеллекту? Это совершенно разные модули.
Сильный ИИ обладает способностью к неограниченной рефлексии, и этого более чем достаточно, а сознание тут опционально и его отсутствие никак не мешает писать симфонии, рисовать картины или же выдвигать новые гипотезы.
из вики:
Интелле́кт (от лат. intellectus «восприятие»; «разуме́ние», «понимание»; «понятие», «рассу́док»[1]) или ум[2][3] — качество психики, состоящее из способности осознавать новые ситуации, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций, и использованию своих знаний для управления окружающей человека средой[4]. Общая способность к познанию и решению проблем, которая объединяет познавательные способности: ощущение, восприятие, память, представление, мышление, воображение[5][6].


Нейросети же — совсем никак не интеллект, если ближе к железу, то
нейросети — это память + логические ПЛИС

никакого интеллекта тут и близко нет, просто обработка данных по заранее установленным алгоритмам.
Проблема с этим определением в том, что в нём фактически постулируется привязка интеллекта к человеку.
Ну хорошо, давайте, чтобы лишний раз не будоражить гуманитарную общественность, введём понятие псевдо-ИИ. Вот только когда этот псевдо-ИИ на нейросетях научится рисовать картины лучше человека, сочинять музыку лучше человека, писать стихи, прозу и журнальные статьи лучше человека, и даже генерировать фильмы (без съёмок, напрямую!) лучше человека, то вопрос о том, можно ли это считать настоящим интеллектом, будет носить исключительно философский характер. Потому как с практической точки зрения всем всё давно будет понятно.
Ну, а времени для философствований у гуманитариев тогда будет в избытке, потому как работы для них, очевидно, сильно поубавится. И да, их философские посты о «ненастоящести» этого ИИ уже никто не будет читать, потому что к тому моменту даже посты на подобную тематику у ИИ будут получаться на порядок интереснее и аргументированнее.
Надо было (как и в жизни) ввести понятие «ценность жизни» и поставить его значение побольше…
Правда тогда бы волки стали пацифистами и не стали есть овец ;)

Если как в жизни, то ценность собственной жизни и ценность чужой жизни должны быть в разных переменных

Вот вам и этика.

Это называется "инстинкт самосохранения" :)

К сожалению, жизнь — это не игра с ИИ. У нас не так много попыток и возможностей начать заново.

Эволюция никогда не работает с одной особью, только с целым видом. Так что попыток начать заново достаточно много. Если же вид немногочисленный, то вероятность его выживания стремится к нолю.
Возможно, главный урок этого эксперимента заключается не в беспомощности и необходимости сдаться.

Природа как бы даёт намёк что смысла бороться нет, в конечном итоге всё тлен.
В реальности ИИ-волки всё равно время от времени демонстрировали некорректное поведение...

И почему же «некорректное»? Всё как у реальных людей(и не только):
отказывались съедать овцу, проходящую прямо перед ними

Мало ли среди людей «самоограничителей» и «самоистязателей». Хотя бы лёгкие формы: вегетарианцы, моралисты, скопцы… Мир полон такими «псевдо-волками».
(и совершали пресловутое «самоубийство об камень»)

Человек тоже часто решает прервать своё бренное существование по массе всевозможных и порой достаточно смехотворных причин, хотя вероятно они ему на тот момент таковыми не кажутся.
Так что ИИ чётко показал что все эти «девиации» в природе обычны и объяснимы.

А всего-то надо было следовать классике:

Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Осталось только понять, как записать это условие в виде функции.

Штраф в -100500 очков за свою смерть же

Ну так правильно, натренировали не самих волков, а "стадо", при этом не в каждой итерации, а суммарно, вот и получилось, что задача каждого индивида была максимизировать суммарное число очков. А для этого индивид игнорировал самого себя ради славной цели.

Общество, в котором действуют похожие законы поведения, описано в From the New World.

НЛО прилетело и опубликовало эту надпись здесь
Да просто не делать встречу с камнем смертельной и всего делов-то.

При правильной системе коеффициентов стратегия "убить товарища, чтобы избежать штрафа" тоже может оказаться выигрышной. И что с того? Это же не моделирование реальных волков и реальных овец. Реальные животные ведут себя сильно сложнее.

Тогда зачем было вообще их рисовать в виде волков и овец и ржать над ними, когда они к камням стремятся? Можно было бы просто сказать, что всё хорошо, в такой модели идти к камню — наилучшая хорошая стратегия, и не на что здесь смотреть.
Интересно, автор перевода перечитывал статью?
Или это скрипт, который загружает случайные статьи в гугл транслейт?
Оригинал:
Another experiment tried using AI to optimize the breaking pressure applied to the cable on an aircraft carrier’s landing pad when an incoming plane hooked onto it to slow itself down during the landing.
Перевод:
В ещё одном эксперименте учёные использовали ИИ для оптимизации давления разрыва, прикладываемого к кабелю на посадочной площадке авианосца, когда приземляющийся самолёт зацепляется за него для торможения.
Гугл:
В другом эксперименте пытались использовать ИИ для оптимизации разрывного давления, прилагаемого к кабелю на посадочной площадке авианосца, когда приближающийся самолет зацепился за него, чтобы замедлить себя во время приземления.
А что не так? Там должно было быть braking pressure вместо breaking pressure? Так это ещё до перевода учёный изнасиловал журналиста.
Так, наверное, переводить нужно используя мозг?
Очевидно, что речь идет про усилие на разрыв троса аэрофинишёра на полётной палубе авианосца.
Нет, совсем не очевидно, что речь идёт про усилие на разрыв.

В статье, на которую журналист ссылается: An incoming aircraft attaches to a cable and the system applies pressure on two drums attached to the cable. The idea was to evolve the control software that would bring the aircraft to a smooth stop by dynamically adapting the pressure. <...> Indeed, evolution discovered a loophole in the force calculation for when the aircraft’s hook attaches to the braking cable.
А ещё под кабелем обычно понимают нечто для проведения сигнала либо электричества. А здесь имеется в виду трос. Хотя говорят, что моряки тросы кабелями называют, но мы-то не моряки.
То, что удержание превратилось в разрыв, намного серьёзнее, чем превращение троса в кабель. Одно — стилистический огрех, другое меняет смысл на противоположный исходному.
Ну, вообще-то, удержать самолёт разорванным тросом сложно :)
А исторически, в англоязычной среде трос звался кабелем, когда электрических кабелей еще и в помине не было. От того что первые электрокабели плелись как тросы ( и имели изоляцию из кабельных материалов), они своё название и получили
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации