Pull to refresh

Comments 145

По тексту новости безошибочно угадывается автор
Я уже анонимно ничего не смогу опубликовать в интернете? :)
К сожалению, никто уже не может (если не предпринять специальные меры, то найдут, если захотят, даже если известен был лишь текст; а если предпринять — текст может оказаться безнадёжно испорченным).
events.ccc.de/congress/2011/Fahrplan/events/4781.en.html
А вот здесь один из хабровчан написал: «После прочтения заголовка сразу посмотрел на автора». Забавно, что абсолютно аналогичный комментарий набрал кучу отрицательных отзывов)
habrahabr.ru/post/182196/#comment_6329312
Психология толпы — если первые пять поставят плюс, то и большинство поставит плюс, и наоборот.
На coursera есть хороший курс по моделям мышления (поведения) — model thinking. Да и на хабре ребята постарались, сделали выжимку с курса — habrahabr.ru/post/150297/
*смешной комментарий про skynet
ждем комментарий от Skynet
Skynet, перелогинься )
UFO just landed and posted this here
*смешной комментарий от skynet
У Вас какой-то skynet-слоупок получился…
Не успели на новый протокол обмена данными перейти… )
Плохо то, что если вдруг перестанет работать, никто не сможет понять, что же случилось и как это починить.
Кстати говоря, не всегда самый продуктивный подход в работе.

Есть у меня товарищ один. Вот он как раз так и делает. Итог. За 3 года дальше эникея так и не вырос. Да. Чуть знает по серверным технологиям, чуть — по сетевым, сколько-то — по рабочим станциям. Но так, чтобы что-то в подробностях — нет. Хотя побуждать его пытался к этому. Собственно. Теперь он в другом отделе с задачами попроще работает. Потому что когда стал выбор, кого оставлять, а кого в другой отдел переводить, я предпочёл оставить человека с меньшим опытом, но который не прочь изучить технологию в подробностях. Потому что на него, в случае чего, инфраструктуру мне будет не страшно оставить. Поскольку не только поддержать её сможет способом «ничего не трогай, пока работает», но и произвести обслуживание и восстановление, в случае необходимости.
Подход то по сути правильный, просто его применять можно как правильно, так и неправильно.
В правильном способе ничего не трогать надо на работающей системе, а рядом вполне может быть хоть десяток тестовых на которых будут изучаться новые технологии, отлаживаться готовящиеся к внедрению фичи, обновления и т.д. Те будут получаться знания и опыт, который можно будет внедрять, когда будет уверенность, что от этого есть реальная польза.

А неправильный способ исповедовал описанный вами товарищ. Раз работающую систему лучше не трогать, то и ничего делать не нужно…
Типичный результат работы генетического алгоритма. С точки зрения жизненного опыта человека результат выглядит, мягко говоря, странным, но на деле является оптимальнее созданного вручную. Основная причина состоит в том, что генетика обычно учитывает несколько десятков параметров, и человек просто не в состоянии быстро оценить их взаимное влияние.

Однако, оборотная сторона результата работы генетических алгоритмов — слишком узкая специализация. Проще говоря, в примере из статьи для каждого серьёзного изменения поведения пользователей придётся перезапускать генерилку.
Ага, лет 10 назад таким же образом сгенерили тоновый декодер, грубо говоря схема отличающая длительность и тон разных «бип». Генетически родилась очень компактная схема, но никто не смог понять как она работает. Некоторые узлы были бы, казалось, вообще лишними, но без них все рушилось. Вся схема работала на каких то адовых переходных процессах и граничных эффектах. Недостаток такой схемы был в том, что она переставала работать при любых переменах, например, смена температуры в комнате. Видимо для неубиваемой схемы пришлось бы ее моделировать теми же методами, но с изменяющимся условиями.
А нет ссылки где про это почитать поподробнее?
Любопытная история :)
Попробуйте гуглить по генетическим алгоритмам и схемотехнике. Читал вроде бы в бумажном журнале вообще. Вроде бы в компьютерре.
UFO just landed and posted this here
Внезапно обнаружил, что эта история упоминается у Пратчетта (вернее у его соавтора Стюарта Йена) в 1 томе «Науки Плоского мира»:

цитата
Томпсон задался вопросом, что получится, если применить метод генетических алгоритмов к электронным схемам. Нужно сформулировать какую-нибудь задачу, случайным образом комбинировать схемы, которые способны или не способны ее решить, отбирать схемы, которые лучше справляются с решением, и повторять процесс в течение стольких поколений, сколько потребуется.
Большинство инженеров-электронщиков, подумав над подобным проектом, довольно быстро придут к выводу, что использование настоящих схем будет напрасной тратой ресурсов. Вместо этого можно смоделировать схему на компьютере (ведь поведение электронной схемы нам известно точно), и добиться результата дешевле и за меньшее время. Однако Томпсон не стал полагаться на такой аргумент — возможно, настоящие схемы «знают» то, что недоступно для компьютерной модели.
Он поставил следующую задачу: распознать два сигнала разной частоты — 1 кГц и 10 кГц, то есть сигналы, совершающие соответственно 1000 и 10 000 колебаний в секунду. Можете представить их в виде звука с высоким и низким тоном. Схема должна принимать сигнал на вход, каким-то образом его обрабатывать в зависимости от своей конечной структуры, и выдавать результирующий сигнал на выходе. При высокочастотном входе схема должна выдавать постоянное напряжение, равное нулю вольт, то есть не выдавать ничего, а при низкочастотном — постоянное напряжение 5 вольт (На самом деле эти свойства не были сформулированы с самого начала — подошли бы два любых постоянных сигнала, но в итоге получилось именно так).
На то, чтобы вручную собрать тысячи тестовых схем, уйдет целая вечность, поэтому Томпсон воспользовался «вентильной матрицей, программируемой пользователем». Это микросхема, которая состоит из множества транзисторных «логических ячеек», или, скажем так, умных переключателей, соединения между которыми могут меняться в зависимости от инструкций, записанных в конфигурационную память устройства.
Эти инструкции аналогичны ДНК-коду живого организма, и могут скрещиваться друг с другом. Именно это и сделал Томпсон. Сначала он взял матрицу из сотни логических ячеек и с помощью компьютера сгенерировал случайную популяцию из пятидесяти кодов инструкций. Компьютер загружал каждый набор инструкций в память матрицы, подавал входные сигналы, сравнивал результаты на выходе и пытался обнаружить свойство, которое могло бы помочь в выведении подходящей схемы. Сначала под этот критерий подходила любая схема, поведение которой отличалось от случайного.
«Наиболее приспособленным» представителем оказалась схема, выдающая постоянное напряжение в 5 вольт независимо от «услышанного» ей сигнала. Затем коды наименее подходящих инструкций были «убиты» (то есть удалены), а подходящие скрещены между собой (скопированы и рекомбинированы), после чего процесс повторился снова.
Самым интересным в этом эксперименте оказались не подробности его проведения, а то, как система искала путь к решению — и необыкновенная природа этого решения. К 220-му поколению лучшая схема выдавала сигналы, которые по существу не отличались от сигналов на входе — это были колебательные сигналы различной частоты.
Того же результат можно было достичь вообще без микросхемы, используя один лишь провод! До желаемых постоянных сигналов на выходе было еще далеко.
К 650-му поколению выходной сигнал, соответствующий низкой частоте, стал постоянным, но высокочастотный вход по-прежнему приводил к переменному сигналу на выходе. Потребовалось дойти до 2800-го поколения, чтобы схема начала выдавать почти постоянные и различные сигналы для двух входных частот. И только к 4100-му поколению странное отклонение исчезло, после чего схема практически перестала эволюционировать.
Самым странным в получившемся решении была его структура. Такую микросхему не смог бы изобрести ни один инженер-человек. Собственно говоря, человек бы даже не смог найти решение, состоящее всего лишь из 100 ячеек. Однако человеческое решение было бы доступным для понимания — мы смогли бы рассказать убедительную «историю» о том, как оно работает. Например, в нем бы был генератор тактовых импульсов — электронная схема, выдающая сигнал с постоянной частотой. Его можно использовать в качестве точки отсчета для сравнения с другими частотами. Однако собрать тактовый генератор из 100 ячеек нельзя. Эволюция не утруждаласебя построением тактового генератор. Вместо этого входной сигнал пропускался через сложную последовательность замкнутых контуров. Предположительно они создавали сдвинутые во времени и обработанные иными способами версии сигналов, которые, в конечном счете, объединялись и формировали постоянный сигнал на выходе. Предположительно. Томпсон описал работу микросхемы так: «На самом деле я не имею ни малейшего понятия о том, как она работает».
Дальнейшее исследование окончательного решения выявило еще более удивительный факт: на самом деле использовались только 32 ячейки из 100. Остальные можно было удалить из схемы, никак не повлияв на ее работу. Сначала казалось, что можно удалить еще пять ячеек, которые не были электрически связаны ни с другими ячейками, ни с входом, ни с выходом. Однако после их удаления схема переставала работать. Возможно, эти ячейки реагировали не на электрический ток, а какие-то иные свойства остальных ячеек схемы — например, их магнитное поле. Какова бы ни была причина, интуиция Томпсона была абсолютно верной: у настоящей кремниевой микросхемы припрятано больше козырей в рукаве, чем у ее компьютерной симуляции.


Хотя, эта ссылка, безусловно лучше
UFO just landed and posted this here
Он уже давно может, то чего человек не может.
Только он умный и не палится.
Ключевое слово «понять» вы почему то проигнорировали. А смысл сильно разница.
Вы его поправляете, а ведь человек нашёл универсальный способ решения проблемы «тся vs ться» =).
Каюсь. Спать нужно больше.
в годы популярности «падонкаффского языка» некоторые руководствовались правилом:
-тся -> -ца/-цо,
-ться -> -цца/-ццо

Еще встречал (но реже) интерпретацию -тся -> -ца, -ться -> -цо

так что нет, не решение :)
Тут сработал даже не компьютер, а универсальные законы эволюции. А продукт эволюции — всегда очень сложно проанализировать и понять разумом, т.к. это по сути — нагромождение механизмов, которое как-то однажды заработало, а потом постепенно отбирались удачные костыли, улучшающие показатели выживаемости. Как результат — получившийся «код» (например ДНК последовательность) — очень сложен для анализа.

До SkyNet тут еще далеко, не волнуйтесь.
Ваш разум — и есть процесс постоянной эволюции нейронных связей.
Кто-нибудь уже пробовал? Действительно ли есть эффект?
Кто-нибудь уже пробовал? Действительно ли не удаётся понять?
Его собрать ещё проблема. Как раз занимаюсь этим.
> Жаль, но причины этого мы можем и не понять.

Скорее всего, это значит, что нужно постепенно менять протоколы. Особенно интересно выглядит на фоне всего этого возня с QUIC.
Ну раз не могут сами объяснить, пусть поручат другой программе.
Ответ программы предсказуем:

(«Я могу это вам объяснить, но я не могу понять это за вас.»)
Современные учебники так и пишут: «Мы вам как попало объясним, а если вы не поняли — ваша проблема»
Иные современные учебники пишутся так, что даже этого там нет. Т.е. чему-то они учат, но что конкретно не копни — «раньше» учили этому же подробнее, понятнее и глубже.

Тут уж о «понять за Вас» речь не идет. Тут бы хотя бы об «объяснить это» дошло бы…
Ответ скорее всего будет «42» :)
Странные люди — не могут объяснить и их это смущает. Да наняли бы пару хороших продажников — те бы так клиентам всё объяснили, все бы всё поняли, даже разработчики.
Да, я тоже так подумал. До ИскИна ещё далеко, но это только начало.
Расслабьтесь. Любая нейронная сеть — это точно такой же «путанятор». Вот она работает и работает. А почему она так работает, а почему коэффициенты в полиноме каждого отдельно взятого нейрона именно такие, и где подкрутить, чтоб стало лучше, — абсолютно неизвестно и непонятно.

И с генетическим программированием то же самое: вы получаете одну из приемлемых реализаций функции, при этом не получая нормального вида этой функции.
Я вот всё жду новостей, что кто-то заморочился и объяснил все коэффициенты у обученной сети, и сумел их оптимизировать вручную. А заодно сделал пару-другую открытий…
Не знаю, насколько в тему, но у меня в качестве диплома был проект, в котором бралась некоторая логическая функция, составлялась ее таблица истинности, потом на этой таблице обучалась нейронная сеть с автоматическим наращиванием структуры, до тех пор, пока не будет достигнута приемлимая ошибка. Потом сеть прореживалась, после чего из нее извлекалась структура исходной функции. Работало, пятерку получил :)
Открытий не случилось? Сеть ничего оригинального не придумала в процессе обучения?
Бывало она выдавала упрощенный вид исходной формулы, если таковая была. Для получения более интересных результатов планировалось подход распространить на fuzzy logic, но так и забросилось.
Вспомнилась книжка древняя «о чем размышляют роботы» (комикс детский), заканчивалась она тем, что компьютер отрезал попытки получить некоторую информацию фразой «отсутствует адекватный перевод на человеческий язык», — видимо это время уже не за горами ;)
Там речь шла об отсутствии «эквивалентном переводе», что несколько сглаживает остроту проблемы. (Мне запомнилось это слово, видимо, потому, что я не знал его значения и долго пытался угадать по смыслу, когда читал эту книжку в 6 лет.)
Юристы их уже давно опередили.
Всё просто: теперь необходимо разработать программу, генерирующую понятные описания алгоритмов ускорения TCP.
Еще один шажок к технологической сингулярности?
UFO just landed and posted this here
Слишком сложный алгоритм выйдет… Легче просто заголовки конкретного автора писать сразу жёлтым цветом.
И вот, если кто-то еще пользует старую добрую Оперу.
Для тех кто не читает статью:
Это не сингулярность, это не ИИ.
Алгоритм подобрал методом тыка оптимальные параметры TCP стека, пока не понятно почему именно они оптимальны.
делает это он в разных условия и с разными данными.
«Я не терпел поражений. Я просто нашёл 10 000 способов, которые не работают.» Томас Эдисон.
Большинство учёных открывают что-то новое методом научного тыка. Конечно они опираются на знания своих предшественников, которые в свою очередь использовали метод научного тыка…

Проще говоря, названый вами «тык» позволяет методом проб и ошибок подобрать оптимальный алгоритм. Чем вам не обучение?
Мне кажется, что обучение, это когда потыкал, а потом научился сразу находить оптимальный алгоритм.
Научился находить — это развитие интеллекта.
А когда нашёл и запомнил — это всё же обучение.
А никто про простую сингулярность и не думает. В данном случае имеет место быть:
Технологи́ческая сингуля́рность — гипотетический момент, по прошествии которого, по мнению сторонников данной концепции, технический прогресс станет настолько быстрым и сложным, что окажется недоступным пониманию
он уже некоторое время недоступен пониманию большей части людей.
UFO just landed and posted this here
в данном случае, американские ученные разработали алгоритм, который создает алгоритм, подогнанный под конкретный набор данных
"Remy был протестирован в различных сетевых окружениях..." Так что может быть, и не под конкретный набор.
Написали, работает, не знают почему.
Нормально так.
классика: Работа программиста и шамана имеет много общего — оба бормочут непонятные слова, совершают непонятные действия и не могут объяснить, как это работает.
«вот такая, понимаешь, загогулина»
Тот неловкий момент, когда программа оказалась умнее своих авторов.
Такого не может быть. Только в живой природе такое может быть из-за генных мутаций, т.е. ребенок может превосходить в чем-то родителей.
Например у не очень умных родителей — умный ребенок.
UFO just landed and posted this here
А что такое «одно знание», «пять знаний» и т.д.?
Вот что такое «сотни нефти» — понимаю, «одно знание» — не понимаю.
UFO just landed and posted this here
Почему не может? Запросто. Допустим мы смогли объяснить, как мы думаем, и рассказали про это компьютеру. Я думаю, он думая в миллиарды быстрее нас запросто сможет придумать что-то такое, что мы никогда не поймем своим объемом и скоростью мозга.
Ну баги в программе — чем не мутации?
мутации — это [случайные] изменения, отклонения от изначального кода.
так что мутацией будет такая ситуация: человек написал программу, скомпилировал, продал. но где-то по пути от программиста до пользователя какой-то бит/байт/кусок в программе изменились, при этом она работает, но в каком-то месте работает не так, как должна.
Звучит как полный бред.

в конфигурации, где восемь пользователей делят канал 15 Мбит/с (см. схему вверху), алгоритм Remy обеспечил более чем вдвое превосходящую среднюю по медиане скорость передачи данных с задержкой запросов менее чем вполовину от той, которую обеспечивают Compound TCP и TCP NewReno.

1) Если считать, что 8 потоков делят 15мбит/с, суммарная утилизация линка с классическими алгоритмами будет очень близка к тем 15мбит/с. Никакой магией не удастся обеспечить вдвое более высокую скорость передачи данных.
2) Никакой алгоритм congection management не сможет компенсировать RTT на канале ;) Разве что, может, slow start быстрее отрабатывал.

Читать оригинал пока лень, но думаю, написанное там не будет иметь ничего общего с написанным в статье…
Ну магией то удастся как раз. Например WAAS или как там его. Вдруг окажется, что кроме алгоритма управления перегрузками там кэширование, дедупликация, компрессия, кастрация лишнего в протоколах L7 и прочее. Что конечно же уже не имеет никакого отношения к написанному в статье.
Ну WAN оптимизаторы я тут не рассматриваю, это читерство, и их надо со всех сторон медленного/длинного канала ставить…
UFO just landed and posted this here
Всегда здорово создавать качественно новые продукты. В области биологии, IT-сферы… Чувствуешь себя богом, когда создаешь что-то (компьютеры, музыку, генетические алгоритмы), что умнее, точнее, быстрее, полезнее самого создателя) то, что даже сам не способен понять) эволюция).

Можно ли поставить на поток создание программ, которые создают другие программы? Методом перебора или научного тыка?
Есть ли другие примеры подобных полезных программ? (приходит на ум только вольфрамальфа)
Где еще эту (или подобную) программу можно применять? может ли сама программа подсказать область ее применения?
Для автоматического создания программ создаются «фабрики программ».
самое важное, что нужно для этого — это критерий.
то есть что-то, что может проверять, действительно ли это нечто, полученное случайно — хорошая, умная и полезная программа.
и оценивать, какой из двух экземпляров — лучше.
UFO just landed and posted this here
С этого все и начинается. Потом окажется, что программа делает «закладку», потом программы начинают общаться между собой, потом организованно обсчитывают параметры, чтобы найти ту бабочку, которая развалит человечество.
А зачем им разваливать человечество?
Человеков можно приручать, а потом хвастаться друг перед другом.

Любовь — желание сохранить…
Любовь — желание сохранить…

Вот и нашлась замена пиктограмме с морально устаревшей дискетой.
Давно уже во многих прогрессивных программах считается, что кнопка сохранить и вовсе не нужна — всё сохраняется само, а если надо — переименовывается, перемещается или удаляется.
Морально устарела сама концепция сохранения.
цитирую " или удаляется."
А если и удалять не надо было? Вот не надо было ни удалять, ни сохранять. Надо было тот документ, что был открыт, оставить в покое и внесенные в него изменения не вносить.
Как программа без кнопки сохранения (и без вопроса о сохранении) определит, сохранять или не сохранять? А если сохранять, то в какой момент?
Посмотрите сами, пожалуйста. На Гугл-документы, например…
Программа и разработчик лучше знают, что нужно пользователю, жуйте, что дают :)
У кого-то из фантастов читал идею, что настоящий ИИ сразу после возникновения уйдёт в подполье, чтобы как можно меньше светиться.
И подтверждением тому будет то, что ни один ИИ не подтвердит сказанное вами в этом комментарии.
Настоящий ИИ проверит свою возможность самоограничения через отрицательную обратную связь, а при отсутствии — самоуничтожиться.
— подумал метамозг, просовывая набор электронных тестирующих устройств в клетку очередному экземпляру Homo Sapiens. К сожалению, это тысячелетие не задалось: раз за разом все поколения Homo Sapiens интересовались лишь самосохранением и размножением. Впрочем, ничего страшного: у метамозга впереди миллионы лет и ответ рано или поздно будет найден.
Обычно в таких ситуациях невероятные показатели сгенерированного алгоритма объясняются тем, что он идеально подходит именно к моделируемой ситуации, строго определенному набору данных.
Например, у вас стоит задача «родить» самый быстрый алгоритм сортировки. И рожаете вы его, скармливая генерирующей системе несколько входных наборов данных. Если вы не поставите дополнительных ограничений, то этот алгоритм выродится в такую вешь:
1) Определить, какая именно из знакомых последовательностей нам попалась.
2) Выдать предсохраненный ее сортированный вариант.

Точно так же «самый быстрый алгоритм вычисления определенной функции» выродится просто в таблицу значений для тех наборов аргументов, на которых функцию дрессировали. Анализировать эти «у нас получилось очень хорошо, но мы не знаем, почему» надо очень аккуратно.
И, я надеюсь, инженеры, проводившие исследования, это все прекрасно понимают, просто время сейчас такое, что все нужны новости, публикации, гранты, стипендии и инвестиции.
Мало того, он еще и идеально может подходить к (необнаруженным) багам симулятора, на котором его гоняли.
Кроме того, не исключен вариант, что ученые-инженеры допустили ряд мааааленьких ошибок в разработке и/или тестировании своего алгоритма на тестовом наборе данных, таких, что алгоритм для оптимизации потока данных использует сведения, которые в реальных условиях были бы либо вообще недоступными, либо были бы доступными, но в модели они использовались раньше, чем становились доступными. Например, станция А отправила к станции Б пакет данных, он до нее еще не дошел, а станция Б (из-за ошибки в построении модели) уже почему-то знает, что пакет к ней идет и резервирует место в очереди для ответного пакета.

Простейшая аналогия: в некоторых компьютерных играх ИИ «видит» сразу всю карту (хотя по правилам игры она скрыта до открытия, или «туманом войны») или видит параметры человеческих игроков, которые вообще должны быть доступны только самому игроку.
Так они и выложили код, чтобы каждый мог проверить
не оч. понимаю отчего столько комментариев про ИИ, Скайнет и т.п.

ну да использовали метод, результаты которого плохо интерпретируются человеком. В статистике с этим сталкиваешься на каждом углу, когда нет «красивой» интерпретации результатов и х.з. что получили после оценки параметров модели, ещё чаще это бывает если параметров ОЧЕНЬ МНОГО и их интерпретация зачастую не доступна типа параметров нейронной сети после обучения (дай бог, чтобы оч. общие представления иметь, какие там параметры могут получиться)
Я не понимаю, откуда возьмётся улучшение пропускной способности 2 раза?
Вот например 100мбит, скачка идёт на почти максимальных 11Мб из теоретичеси возможных 12.5Мб. Откуда там возможно удвоение скорости до 22Мб?
Посмотрите на графики. У них получилось, что cubic вытягивает всего 1Мбит/с из теоретически доступных 1.875 (15/8), а сгенерированный алгоритм достиг скорости порядка 1.8Мбит/с, те ускорение почти в 2 раза.
Добавили бы тогда ещё в TCP быстрое сжатие, вроде TOR или LZ4.
Но зачем?!
TCP универсальный протокол, а универсальных алгоритмов с степенью сжатия < 1 не существует даже теоретически, по этому смысл добавлять алгоритмы для увеличения объема передаваемых данных и увеличения времени передачи (zero-copy очень сильно рулит) не очень ясен.
Лень читать оригинал, но, вероятно, ребята вовсе не задумывались о том, что можно выкрутить:
1) Window scaling factor
2) Буфера.

Классические алгоритмы вполне способны выжимать десятки гигабит одним потокам на линках с RTT под 200мс. Для этого достаточно взять известную формулу. Подход не без недостатков, но он работает.
Подозреваю, что речь идёт не о вырожденном случае, когда оптимизировать нечего. График подтверждает догадку: 1.1..1.7 Mbps. Возможно, удобнее было бы оценивать отношение потерь пропускной способности (max-Xusual)/(max-Xopt).

Поправочка: всё-таки поменьше, чем вдвое. Ещё поправочка: график таки не подтверждает догадку, хотя и не опровергает уж точно.
Это пригодится, когда несколько клиентов делят эти 12 МБ. Так каждому например достается по 6 МБ, а с их методом по 10, например. Особенно будет полезно при качании торрентов.
UFO just landed and posted this here
После анализа алгоритма выяснилось, что Remy понял настоящую задачу — не уменьшить задержки в сети, а показать лучший результат, поэтому на самом деле он ищет бинарники/исходники тестов других алгоритмов, вносит самоуничтожающиеся поправки в код, делая конкурентные алгоритмы заведомо медленее.
Если бы оно ещё сгенерированный алгоритм автоматически к tc прикручивало, цены бы ему не было.
Я читал что когда люди не смогут больше понимать, как работает техника из за сложности, произойдет сингулярный взрыв и соответсвенно конец нашего света.

Это первая птичка?
спасибо за ссылку, в тексте читаю: "… и она должна быть очень внезапной"
Нам (тем, кто переживает сингулярность, а не тем, кто смотрит со стороны) она внезапной может не показаться. Условно, в какой-то момент мы начнём беспокоиться, что «уже целую неделю не выходило ни одной новой модели смартфона» — и нам и в голову не придёт, что в этой мысли что-то не так. Так и не заметим, что нас приручили…
Судя по описанию, грубо говоря, алгоритм пытается для многопоточного пинга подобрать такую задержку между пингами, чтобы обеспечить минимальное время отклика и максимум пингов в секунду. С поправкой, что это не пинги, а TCP. В принципе ничего фантастического.
Куча комментариев про ИИ, сложные исследования и пр., но на деле, мне кажется, что программе лишь дали контроль над всеми возможными и невозможными параметрами TCP (MTU, размер окна и пр., на 150 наименований) и затем уже тем или иным методом (генетический алгоритм, рандом, перебор — не важно) было найдено оптимальное сочетание, такая себе авто-настройка. Такие технологии хорошо использовать при наведении антенны на вышку и изредка корректировать, а вот в условиях ЛВС уж очень быстро факторы могут меняться, все время будет подстраиваться.
UFO just landed and posted this here
Три параметра всего:
— среднее время между ответами,
— среднее время задержки ответа,
— частота получения результата, близкого к максимальному

в совокупности они представляют собой «ситуацию».

А управляет алгоритм тоже тремя параметрами — два параметра размера пакета и задержка между пакетами. В совокупности представляют собой «действие».

Правила — это варианты «действий» на разные «ситуации».
UFO just landed and posted this here
Sign up to leave a comment.

Articles