• Девайсы для пентеста. Обзор хакерских девайсов. Часть 1: Мини компьютеры
    0
    Есть как отдельный модуль/hat, и стоит как-то неприлично, мы просто отказались от него потом. Ну и впаянного eMMC в малине точно никогда не было.

    Имхо для прокси и VPN делать такой юбердевайс из SSD, PoE hat и малинки — и дороговато и в обслуживании тяжело и по компоновке громоздко — это же не БД на нем крутить, там сеть да проц требуются.

    Тем более, что по крайней мере у 3-ки загрузка с SSD не сильно устойчива (и кстати обнуляет warranty bit), а SD карту оно пилить будет пока не пропилит — придется менять регулярно.
  • Девайсы для пентеста. Обзор хакерских девайсов. Часть 1: Мини компьютеры
    0
    Вроде у этого PoE был.
    www.banana-pi.org/m2pz.html
  • Эх, айти, куда ж ты котишься? 
    0
    >IT станет попсой

    Я просто оставлю это здесь.

    You could think of it as putting a low-pass filter on some of the good ideas from the ’60s and ’70s, as computing spread out much, much faster than educating unsophisticated people can happen. In the last 25 years or so, we actually got something like a pop culture, similar to what happened when television came on the scene and some of its inventors thought it would be a way of getting Shakespeare to the masses. But they forgot that you have to be more sophisticated and have more perspective to understand Shakespeare. What television was able to do was to capture people as they were.

    So I think the lack of a real computer science today, and the lack of real software engineering today, is partly due to this pop culture.


    (с) Алан Кей, 2004
    queue.acm.org/detail.cfm?id=1039523

    >Если 3-4 года назад ИТ-сфера была новым роком и формировала именно такую отраслевую субкультуру, то сегодня это уже почти попса.

    3-4 года назад айти уже давно было не попкультурой, а карго-культом. И будет таковым, пока разработка методом random walk + agile окупается.
  • Сверхинтеллект: идея, не дающая покоя умным людям
    0
    Это как считать.
    Если по посещающим культовые заведения и храмы — то верующих будет сильно меньше.
    А если приплюсовать верующих в демократию, коммунизм, Айн Ренд, Новую Хронологию, РенТВ, инвестиционные стартапы, веганство или страшный ИИ — процент сильно уменьшится.

    Собственно история Василиска Роко подтверждает, LessWrong изначально был крайне рациональным коммьюнити, но придумать такой адский пример снов разума, как Василиск сумели именно там, а не в Саудовской Аравии.

    Похоже кто-то всемогущий востребован даже среди интеллектуальных и рациональных яппи.
    Иначе откуда столько шума о сверхинтеллекте среди людей считающих себя умными?

  • Сверхинтеллект: идея, не дающая покоя умным людям
    0
    В наш атеистический век ИИ очень полезен — он позволяет философам (и некоторым веб-разработчикам) заниматься богоискательством и богостроительством на законной основе.
    Иногда даже создается впечатление, что им таки сложно жить без идеи о чем-то всемогущем и карающим.
    Хотя может они просто привыкли жить испуганными.

    Жду когда ко мне придет Roko Basilisk и начнет пытать меня кривым кодом…
  • Ноам Хомский: где искусственный интеллект пошел не туда?
    0
    При всем уважении к Хомскому — этот текст отлично читается параллельно с «Туннель Эго» Томаса Метцингера.

    Потому что если «понимание» (в понимании Хомского) является самообманом и иллюзией мозга по Метцингеру — то тогда факультет физики представляет собой лишь объединение коннектомов докторов наук этого факультета, выдающее кроме научных статей в качестве побочного эффекта осознание докторами наук своего «понимания» и соответствующую порцию эндорфинов (или грантов) авторам статей — как опосредованный эффект понимания.

    Подход на основе статанализа и бихевиоризма внезапно широко используется в реальном мире, где можно получить реальную же отдачу — реклама и маркетинг не требуют понимания но дают ощутимый результат.

    Впрочем тема обсуждения на самом деле гораздо сложнее дихотомии Tensorflow против Coq, оба подхода лишь часть общей панорамы.
    Которую в принципе невозможно увидеть без жестких определений AI — иначе можно долго искать многоцветного бармаглота в радужной комнате. И даже найти и не один раз.
  • Генетический алгоритм построения алгоритмов
    0
    Лучшие результаты в ГА у меня получались когда я включал локальную оптимизацию.
    Т.е. ГА ищет структуру со случайными параметрами, а результирующий фитнесс считается после того, как эти параметры оптимизируются отдельно — например стохастическим градиентом (или просто градиентом).
    Но это очень затратно.

    Имхо современное понимание генетических алгоритмов что-то упускает из виду, а именно декомпозицию задачи на условно-независимые компоненты, которые могут эволюционировать отдельно.
    Причем в теории эту декомпозицию можно встроить в сам алгоритм, но вот на практике это работает очень странно и малопредсказуемо.
    Я пробовал использовать гиперциклы, разложение фитнесс-функций на аддитивные компоненты, везде чего-то не хватает.
    Надеюсь кому-то повезет больше, т.к. имхо потенциал генетики недооценен.

    PS
    Вот интересная штука на базе генетики, которая считалась копролитом, потом воскресала, потом опять забывалась — несколько раз подряд.
    en.wikipedia.org/wiki/Learning_classifier_system
  • Вредные заклинания в программировании
    0
      int x=42;
    // wtf ???/
      x++;
      printf("%d\n",x);
    

    gcc 6.4 печатает 42 — если -std=c11 или c99
    А вот если std=gnu99 или gnu11 — результат 43. И предупреждает при компиляции.
    Не любят триграфы современные компиляторы…

  • Генетический алгоритм построения алгоритмов
    +4
    Я учил эту область по многотомнику John Koza в начале нулевых или даже в конце 90-х — для трейдинговых систем.
    Вот этот человек:
    www.genetic-programming.com/johnkoza.html

    На самом деле очень интересная тема, позволявшая находить нестандартные решения, которые экспертные группы просто не могли увидеть в силу замыленности взгляда.
    Я потом перешел на Grammatical Evolution подход с линейным геномом, до сих пор в разных областях использую — например для поиска оптимальных дескрипторов в обработке изображений, генерации атрибутов для Machine Learning, вообще применения есть.

    Основные проблемы — code bloat (неконтролируемый рост кода), сложность с циклами (много зависающих программ, которые сжирают все ресурсы), общая затратность выполнения.
    Небольшие четко заданные проблемы эта штука решает хорошо — например можно «вырастить» генератор случайных чисел или алгоритм компрессии отпечатков пальцев, лучше, чем аналоги, сделанные человеком.
    А вот сложные проблемы надо декомпозировать, здесь бутылочное горлышко и обычная генетика слабо справляется, несмотря на теорему шим.

    Ну и в случае недостаточно четкой постановки задачи можно получить сюрприз, у меня одна стратегия вместо эволюции нашла баг в модели рынка и нагло им воспользовавшись, показала очень хорошие результаты. Правда плохо воспроизводимые на реальном рынке.

    Искусственному интеллекту проще обмануть хозяина, чем решать задачу.
    :-)
  • Генетический алгоритм построения алгоритмов
    +4
    Можно вместо Forth использовать PUSH — специально разработанный язык программирования для этой области.
    faculty.hampshire.edu/lspector/push3-description.html

    Да, область называется en.wikipedia.org/wiki/Genetic_programming
    Там много подводных камней на самом деле.
  • Не очень большие данные и определение тональности текста
    0
    Обычный Random Forest на случайных байтовых n-граммах так сразу мне показал 72.95% — без тюнинга.
    При том, что быстрее Random Forest в детекции наверное ничего придумать и нельзя.
    И это тоже агностический метод, количество параметров ненамного больше и знание содержимого файла не требуется — он будет работать и на классификации вирусов, спама, ДНК и чего угодно с линейной структурой и произвольной длиной.
    Возможно n-граммы на словах или на синсетах покажут лучший результат, но они уже преполагают текст, причем на европейском языке, с пробелами и пунктуациями.

    Для существенного поднятия точности нужен уже deep learning — трансфомация пространства признаков. И получать их лучше с очень больших объемов неклассифицированных данных.
    Приведенный датасет для таких задач вообще непригоден, он слишком мал.
  • Не очень большие данные и определение тональности текста
    +1
    Для полноценного разбора текста требуется еще и иметь языковую модель.
    Которая не только разная для каждого языка, но и в пределах одного языка может сильно варьироваться.
    Я как-то вытаскивал данные из сотни тысяч английских текстов, написанных индусами, китайцами и филиппинцами.
    По результату пришлось писать свой экстрактор — готовые системы (коммерческие и бесплатные) давали очень плохое качество. Хотя казалось бы — где уже сделано все и все истоптано — так это в английском языке.

    Поэтому агностические модели столь привлекательны — более традиционные схемы предполагают большой объем ручной адаптации, что реально дорого IRL.
  • Не очень большие данные и определение тональности текста
    0
    Разница есть и gzip не подходит.
    Вообще блочные упаковщики плохо работают для таких целей.
    Проверить насколько хорош упаковщик можно простой процедурой.
    cat somefile | packer >test1
    cat somefile somefile | packer >test2

    Если рамеры файлов test1 и test2 мало отличаются — то упаковщик подходит.
    Второе требование — чем сильнее он пакует целевые файлы — тем лучше для результата.
  • Не очень большие данные и определение тональности текста
    0
    добавил апдейт в пост
  • Не очень большие данные и определение тональности текста
    +2
    Автор показал, что пока ведущие специалисты мира разрабатывают структуры слоев нейронных сетей или спорят о типах дистанции в автоэнкодерах — существуют полностью агностические методы, дающие сравнимый результат.

    Что в свою очередь как бы намекает, что ни автоэнкодеры, ни сверточные слои, ни loss-функции не являются необходимым элементом для построения классификатора.

    Вот здесь habrahabr.ru/company/meanotek/blog/256593 например конволюционка на 8 нейронах дает меньше. А на 16 — больше.

    Разумеется в реальных задачах никто не делает троллейбусы из буханки черного хлеба.
    Но в реальных задачах на больших данных приведение размерности к дистанциям выборки из базы — обычная практика и может быть названо deep learning для бедных.
    Такой известный продукт как sofia-ml например его использует, скорость весьма впечатляет.
  • Не очень большие данные и определение тональности текста
    0
    Практического применения здесь нет — слишком затратен метод. Разве что использовать персональный десктоп в качестве зимнего отопления.
  • Лебедь, рак и щука как решения парадокса Ферми
    0
    Очевидно что парадокс Ферми связан не с поиском разумной жизни, т.к. для этого сначала бы стоило определить что это такое — «разумная жизнь».
    На самом деле (тм) парадокс Ферми связан с поиском чего-то, похожего на нас — с политиками, радиосигналами, телевизором и международной торговлей, живущими на планете с водой, белковой жизнью и желательно с блондинками.

    Мы ищем не разум (что бы это слово не значило), мы ищем зеркало.

    Искать будем долго, т.к. независимо от формул Дрейка — мы единственные в галактике и Вселенной.
    Не потому, что других больше нет, а потому что мы можем заметить лишь свою копию.
    А единственное чего не может существовать в бесконечном Универсуме — это столь детального копирования.
    Комбинаторика не позволяет.

    Собственно я не вижу как при современном подходе SETI например могло бы заметить например Солярис.
  • Intel® Parallel Studio XE 2015 — разговор о новых именах и «фишках»
    0
    А возможности приобрести отдельно MKL и IPP уже нету, я правильно понимаю?
    Только в комплекте со студией?
  • Чувство боли как программная основа сильного искусственного интеллекта
    0
    Не.
    В 80-е я был студентом-физиком.
    :-)

    Собственно тогда считал синергетику (как и кибернетику) лженаукой в чистом виде.
    Но в тот момент мне попалась на глаза вот такая книжка
    www.twirpx.com/file/444955/

    И сам подход мне очень понравился, я решил попробовать с другой стороны и для других целей.
    В принципе ничего разумного не вышло — ну начнет животное осциллировать между состояниями, как модель Вольтерра-Лотки, как-то тривиально.
    А именно тогда искать условия хаотического поведения мне в голову не пришло.
  • Чувство боли как программная основа сильного искусственного интеллекта
    0
    Lego Mindstorm можно похачить.
    Он конечно на автономку больше завязан, там wifi надо отдельно цеплять.

    Или Roomba была модель специально для поиграться, но там емнип синийзуб.
    Хотя там линукс стоит, можно попытаться подрубить что-то.

    Я к тому, что готового железа хватает.
  • Чувство боли как программная основа сильного искусственного интеллекта
    0
    Насколько долго оно так сможет жить — вопрос.
    Внутренние ритмы будут постепенно замедляться пока не остановятся.
  • Чувство боли как программная основа сильного искусственного интеллекта
    +1
    Дзен надо сильно ограничивать, иначе возникает состояние «Нирвана», когда любая внешняя среда оценивается как позитивная и никаких действий не требуется.

    Лучший способ — привязать функцию оценки к производным по времени.
    Причем так, чтобы одинаковая внешняя среда с каждым моментом времени вызывала все больше раздражения.

    Вообще количество циклов обратной связи в таких моделях зашкаливает, «Нирвана» — это самый простой.

    Девайс с самой богатой внутренней жизнью — это странный аттрактор, который никогда не бывает в одной точке дважды.
  • Чувство боли как программная основа сильного искусственного интеллекта
    +3
    Много лет назад интересовался я такой окаменелостью, как alife.
    И вот в построении моделек я разбил базовую стимуляцию на три компоненты — по срезу оценка/действие.

    Девайс мог оценивать оценивал видимую часть мира как позитивную для себя — в этом случае действий не требовалось.
    Я назвал этот паттерн «счастьем» — хотя возможно надо было назвать «ленью» или «дзеном».

    Девайс мог оценивать среду как неблагоприятную.
    И в этом случае могли активизироваться два паттерна.

    «Страх» — стремление уйти из ситуации/локации, действие прикладывалось к самому себе.

    «Агрессия» — стремление изменить ситуацию в свою пользу, действие прикладывалось к окружающему миру.

    Интересно то, что из этих трех основных блоков можно было построить произвольно сложное поведение.
    Причем функция оценки (отображения внешего мира на некоторый вес) — она в принципе значения не имела, т.е. вообще ее можно было сделать случайной (но не меняющейся во времени).
    Хотя в живых организмах она фиксирована и определена крайне остроумным способом (Danger Theory).

    Операцией, которая расширяла поведение до самообучения была «рефлексивность» — когда девайс рассматривал себя как часть окружающего мира в будущем, заменяя «страх» на «агрессию», и, таким образом строил абстракции, моделирую функцию оценки во времени.
    Например быстрая скорость роста функции оценки — это позитивная оценка.

    Т.е. вместо абстракций структуры девайса можно было оперировать взаимоотношениями функций оценки, подменяемых на разных уровнях.

    PS
    Собственно модель никогда не существовала в коде, а была комбинацией систем дифуров, энтузиазма и синей изоленты.
    И рисовалась емнип в конце 80-х.

    Но может кому такое разделение и поможет — хотя сам я и не верю в сильный интеллект.
    Имхо антропоцентрические модели в XXI-м веке выглядят несколько натянуто.
  • Видеопост: сверхзвуковой теннисный шарик, автомат Калашникова и колибри
    +3
    Интересно было бы посмотреть на подводный выстрел вот такого зверя

    Там картинка выстрела должна полностью отличаться, у него пуля использует кавитационный пузырь, да и сама пуля очень специфичной формы.
  • Twitter собирается объявить войну «Троллям»
    0
    Скарказм кстати почти нерешенная проблема, вояки вроде пытались сделать, надо посмотреть что получилось.

    Вот тут например есть строчка в таблице:
    www.darpa.mil/opencatalog/DEFT.html

    А насчет ложных срабатываний — это вполне регулируется, в антивирусах вон вообще ради <0.01% FP детекцию до 60% режут а то и ниже.
    Это как раз не такая серьезная головная боль, решается увеличением пропускаемых сообщений.

    Ну и опять же — а зачем автоматом все резать, когда можно просто показывать пользователю индикатор эмоциональности или троллеметр.
    И пусть каждый юзер сам настраивает когда резать — под свой личный уровень комфорта.
    Может ему наоборот нравятся срачи, а блокировать надо мимишных котиков.

    PS
    В твиттере не сижу, но пробежался по своей ленте в g+ — мне как раз наибольшие непрятности доставляют как раз политхейтеры и матерщинники, их фильтровать — FP практически не будет. Сарказма там маловато, они реально простейшие.

    Но это мои личные предпочтения, наверное у кого-то критерии будут другими и соответственно качество фильтрации тоже будет другим.

    Пробовать надо на живой системе.
  • Twitter собирается объявить войну «Троллям»
    +1
    Можно.
    Я делал похожее для английского языка, только без эмоционалки, по другим критериям.

    Там другие грабли вылезают.
    Я уперся в симметричную ошибку, т.е. если допустим качество 99%, то каждое сотое нормальное сообщение будет пропадать как троллинг.
    А реально качество систем анализа текста — далеко не 99%.

    Чистую эмоционалку я не делал, там качество может быть не самым высоким.
    Но никто не мешает не фильтровать, а выставлять соответствующий флажок.

    Вообще думаю заняться этой темой, в сентябре может буду искать спонсора, если другой проект не выстрелит.

    Почему это не сделано?
    Это на самом деле сделано — обработка отзывов о товарах например или мем-трекеры («а кто это у нас тут про президента плохую шутку повторяет» :) ).

    Но это B2B, не для всех, т.к. инвестиции в лингвистику достаточно большие и открывать их никто не хочет.
    На толстых котах в энтерпрайзе больше отбивается.
  • Twitter собирается объявить войну «Троллям»
    +2
    А в чем проблема натренировать обучалку?
    Ну да, дело недешевое — прогнать турком 10К — 100К сообщений, если я сам дома на коленке такое сделаю.
    Но как-то для таких монстров как твиттер или мордокнига — в чем проблема оценить пост по эмоциональности?
    Ну да, лингвистам посидеть придеться.
    Ну картинки не возьмет.
    Но большинство постов фильтрануть (причем на основе индивидуальных предпочтений) — не проблема никак.

    Насколько мне известно у амазона есть система, которая фильтрует проплаченные описания продуктов.
    И в общем никакой супертайной магии там вроде нет.

    Сам занимался близкой тематикой и как раз прикидывал стоимость тролль-детектора — для домашней работы не получится, но командой можно организовать относительно малой кровью.

    И никакого паспорта или деанонимизации не надо будет.
    Все роботом делается.
  • В Украине не будут блокировать сайты?
    –1
    Радует.
    В свое время мой провайдер очень своеобразно понял патриотизмЪ и вместе с вывешиванием флага на всю стену в офисе заблокировал все, чтоем казалось неправильным.

    Похоже веселое время, когда национальное самосознание заменяло не только судебные органы но и здравый смысл — таки уходит и это хорошо.

    forum.icn.od.ua/viewtopic.php?f=4&t=490
    icn.od.ua/posts/uvazhaemye-abonenty

    Но самой фильтрации похоже уже нет.
    Хотя куда идут логи у посетителей таких ресурсов — вопрос, хм, интересный.
  • «Кто я?» — чтение мыслей и никакого мошенничества (посмотрите исходник)
    0
    Этот сайт не сумел определить тремор.
  • Обучаем компьютер чувствам (sentiment analysis по-русски)
    0
    Это не текстовые данные, как я писал — это не NLP задача.
    Ну и данные мне не принадлежат — их собирали много лет, это бинарники разных вирусов и не только вирусов.
    Интересно что эти самые тупейшие n-граммы ловили ряд полиморфов — что теоретически не должно было иметь места.

    Эмоционалкой не занимался, а по NLP вообще могу посоветовать.

    Собственно первое что я использую для NLP — дамп википедии, например только англоязычных страниц, относящихся к людям — более миллиона.
    Причем часто требуемые метки можно получать сразу из инфобокса, ну или дальше из онтологий поверх википедии.
    А n-граммы на тексте получаются сразу двух уровней — посимвольные и как списки слов.
    Соответственно атрибутов в два раза больше.

    На Kaggle можно много найти.
    Еще вот такая свалка archive.ics.uci.edu/ml/datasets.html

    Вот для NLP есть некоторые
    www.clips.ua.ac.be/conll2003/ner/ — прямо сейчас открыто у меня.
    Вообще гуглим CoNLL dataset

    Ну и www.americannationalcorpus.org/OANC/index.html
    Но тут разметка врет как дышит — я отказался от него, там даже разбивка по предложениям кривая.

    Если надо просто большой сет — то files.grouplens.org/datasets/movielens/ml-10m-README.html
    Был еще старый 100M NetFlix Prize, но доступ вроде как закрыли, у меня где-то должна была остаться копия, если надо — пишите в личку, могу поискать.

    PS
    Имхо n-граммы должны хорошо работать когда требуется классификация всего текста, а не его части, причем текст должен быть достаточно объемный.
    Если тексты короткие как твиты — то смысла применять нет.
  • Overclock мозга или Внутренняя виртуализация сознания
    +1
    У меня очень похоже, зеркало всегда отражало какой-то перманентный морфинг, часто жутковатый.
    Именно ощущения от чтения и зеркала во сне на меня производили наибольшее впечатление своей чужеродностью.
  • Overclock мозга или Внутренняя виртуализация сознания
    +2
    Вот интересно два вопроса к спецам.

    1. Удавалось ли кому-либо во сне прочитать связный текст?
    2. Удавалось ли кому-то во сне посмотреть в зеркало и увидеть там что-то разумное?

    Чисто из интереса, я на этих двух точках остановился и похоже навсегда.
  • Логика мышления. Промежуточный итог
    +2
    Программист, специализируюсь на machine learning и тем, что иногда называют AI. :-)

    Я прочел весь цикл статей, правда многие поверхностно.
    Модель достаточно интересна и интуитивно понятна тем, кто не испорчен фон Неймановской архитектурой.
    Волновые вычисления меня кстати интересовали давно (я физик-теоретик по основному образованию), но давно про их и забыл, т.к. никакого коммерческого интереса не видел. На обычный компьютер они ложаться плохо.
    По той же причине кстати стараюсь не использовать в работе нейронки.
    Вообще исхожу из «железа», поэтому не собо верю в эффективность волновой модели — у меня специфика нагруженные бэкенды.
    Вы сами пишете, что все упирается в быстродействие.

    Другое дело — если бы была новая аппаратная архитектура, оптимизированная под такую среду.
    Тогда возможно все бы изменилось.

    Мое мнение по использованию таких алгоритмов очень прагматично — если бы мы делали автомобили по образцу лошадей, на наших мерседесах были бы железные ноги, а не колеса. И стоили бы они в десятки раз больше.
    Поэтому понимание процессов работы мозга очень важно — это ключ ко многим технологиям.
    Но понимание и имплементация — разные вещи и любое прямое копирование будет столь же неэффективно, сколь установка ног на мерседес.

    В истории техники очень мало успешных технологий, заимствованных у живой природы.
  • «ZeroMQ».Глава 2: Знакомство с сокетами
    0
    Conditional jump or move depends on uninitialised value(s) означает что инициализация в нашем коде прошла успешно


    Это означает что переменная b содержит неопределенный мусор.
    Если бы вы написали int b=42; то этого сообщения бы не было.
    Valgrind совершенно правильно указал на ошибку в коде, не фатальную, но неприятную.

  • Голосования и информационная безопасность
    0
    Ну я как бы и указываю, что в конкретных задачах можно обойтись без голосования вообще.

    Я бы разделил возможности использования голосования на следующие юзкейсы.

    1. Найти решение проблемы. Самый редкий случай.

    Так ведь нахождение решения — это достаточно формальная процедура, которую можно сделать вообще без голосовалки.
    Мы что голосуем о доказательстве теоремы Ферма?
    Или о погоде через неделю?
    Нет, мы либо смотрим доказательство, либо делаем расчет погодной модели.
    Здесь вообще нет понятия выборов, разве что для психологического спокойствия.
    Методы ad hoc будут лучше всегда — хотя бы по теореме о бесплатных ланчах.

    И более того — решения, которые мы ищем обычно лежат в объективном мире. И, значит, привлекать субъективные мнения людей — гарантированно ухудшить решение.

    Того же бухгалтера надо просто фильтровать по показателям, пока не останется один.
    Смысл голосовать?

    2. Найти или продемонстрировать консенсус.
    Это как раз более частое применение.
    Т.е. есть субъективные мнения.
    Надо их агрегировать в коллективное субъективное мнение. Объективным от агрегации оно ведь не станет, правильно?
    СМС-голосования за самую попсовую певицу — вот это оно.
    Т.е. за самую большую грудь голосовать смысла нет — ее можно измерить.
    А вот за субъективные показатели (т.е. существующие только в голове голосующих) — как раз что доктор прописал.

    Здесь система работает.
    Хотя имхо вхолостую — т.к. разницы между первым и вторым местом по попсовости особо нету.
    Зато можно сделать шоу и поднять профитов.
    Ну так вот тут открытая рутовая консоль только увеличит эти профиты!
    :-)

    3. Снять с себя ответственность.
    Это уже больше в политике.
    Президент плохой — ну сами же выбирали.
    Т.е. чистая психология, отмазка.
    И опять же грязные хаки здесь — это часть правил игры, как в случае с Дж. Бушем и голосованием во Флориде.

    Получается что голосование нужно только как дурилово — в случаях 2 и 3.
    А в этом случае — зачем заморачиваться?
    Генератор случайных чисел сделает ту же самую работу.

    PS
    Накатаю ка я свою статейку по своему видению проблемы…
  • Голосования и информационная безопасность
    0
    Банковские вклады — это не перекладывание ответственности и тем более не шоу.
    Т.е. уже не проходит.
  • Голосования и информационная безопасность
    0
    Там где речь идет о выборах с количеством в сотни участников или более — выборы выполняют всего лишь цель демонстрации консенсуса.
    Но не нахождения решения.

    Если можете привести контрпример — с удовольствием выслушаю.

    И да, попробуйте представить себе мир, где вам делает операцию аппендицита хирург, выбранный голосованием.
    Или где атомной станцией управляет оператор, получивший свое место в результате электорального процесса.
    Или где в большой корпорации все работники выбирают главбуха.

    Везде, где важен результат — используются профессионалы и никакой демократией не пахнет.
    Везде профессионалов долго растят, долго учат, отсеивают и внедряют профессиональные системы этики на уровень подкорки.
    Везде, кроме политики — и дело не исчерпывается одобрением местного фюрера.

    Может в политике результат не настолько важен?
    Или в ней результатом является нечто другое, а не то, чему учат в школе?

    И да, я прочитал пост.
    И привер контрпримеры, когда эти требования бессмысленны без понимания общего предназначения выборов.
    Вы можете привести примеры, когда выборы бы оптимально решали свою задачу?
    Там где участников >> 10^3?

    Истина не определяется голосованием.
    Для этого есть совсем другие процедуры.
    Даже в системах типа ensemble learning, — метод majority voting является одним из самых слабых вариантов.
    И предполагает независимость исходных моделей.
  • Голосования и информационная безопасность
    +1
    Голосование — это инструмент.
    Ну как шестеренка в машине.
    Говорить о требованиях к шестернеке, не понимая какую задачу решает машина можно долго и увлекательно.

    Какие задачи решает голосование?
    Зачем оно нужно вообще и почему оно встрено в сложные социальные машины, управляющие нашей жизнью?

    Вот с этого надо начинать.
    Т.к. может внезапно выясниться, что выборы — это шоу, а оставленная открытая рутовая консоль лишь добавляет вовлеченности участников и поднимает стоимость рекламы в СМИ.

    Или может выясниться, что выборы — это средство перекладывания ответственности на абстрактный «народ». И грязные хаки просто необходимы, т.к. народ может много чего наворотить — как и любой другой субъект не обладающий ответственностью.

    А если еще понять, что голосование, как метод принятия решений является одним из самых примитивных и худших, а при высокой коррелированности индивидуальных мнений — просто начинает давать обратные результаты, то возникает вопрос — нафига эти выборы нужны, когда есть более точные способы агрегации мнений.

    А без таких уточнений мы приходим к банальностям — ну да, шестеренка должна быть металлической, ну да, она должна быть с зубцами…

    Как-то так.
  • Какая польза от 3D принтера?
    0
    Когда-то были большие сомнения, что домохозяйки смогут использовать персональные компьютеры.
    С тех пор многое изменилось…

    Как сейчас поступает домохозяйка, когда ей нужен красивый аватар в социалочку?
    Идет к подружке, которая владеет фотошопом.
    Так же и тут будет.
  • Какая польза от 3D принтера?