Как стать автором
Обновить
3
0
Андрей Чащев @chaschev

Пользователь

Отправить сообщение
В качестве возмездия или противодействия таргетированной рекламе можно попробовать попросить своих друзей купить памперсы, а потом вернуть деньги или просто попросить написать их в сообщениях о их якобы беременности. Интересно, сколько будут терять магазины при покупке таких ложных профилей? :-)
Наверно, это первый стратегический шаг для формирования научных рот программистов. Сначала написал в шутку, а сейчас уже и призадумался…

Вообще мне кажется, что запретить дистанционное обучение можно для того, чтобы было меньше брожения в умах. Для улучшения качества образования? Хм, нет — качество формирует рынок профессий, свободная конкуренция, а не запреты обучать людей.
Кстати, основатель DeepMind Демис Хассабис в 2010-ом то же самое говорил, жаль что сейчас его Гугл попросил не давать интервью:

Но я думаю, что мы настолько далеки от этого, и чего-либо, что может оказаться опасным или разумным, что мне кажется, что мы проделать намного больше работы перед тем, как начать анализировать, какие опасности могут возникнуть.

But I think we're so far away from that, and so far away from anything being dangerous or sentient, that we need to do a lot more work first before we can properly analyse what the dangers might be. источник
Случайно нашел в Интернете — его Гугл попросил не давать интервью после покупки DeepMind:

For the moment, however, that picture remains blurred. Despite the glut of publicity surrounding the sale of DeepMind, nobody seems sure exactly what it does – and those who know won't tell. Hassabis politely declined to comment for this article, saying he has been «instructed by Google not to respond to interview requests at this time». via
Если честно, мне не нравится сама точка зрения, осуждение обсуждения и культурного обмена. Я прошу прощения, если вы не имели этого в виду.

По поводу тезисов — разве кто-то говорит о торможении прогресса? Риски скорее увеличатся, потому что разработкой могут заняться злоумышленники. Насчет вероятности — она все-таки выше нуля, и у экспертов есть несколько мнений… Некоторые считают, что машины вообще никогда не станут умнее людей.
В следующих интервью есть гипотезы НФ сценария с построением СЧИИ на Луне термоядерных реакторов:

Однако, разумеется, бесконечный интеллект невозможен из-за физических ограничений. Без дополнительной помощи закон Мура будет продолжать действовать до достижения физических ограничений вероятно в 2060, если текущий уровень прогресса сохранится, и стоит ли говорить, что эти пределы как бы невозможно достичь (потому что они могут влючать процессы, которые отдаленно напоминают черные дыры). Однако, представьте, что ИИ сможет разработать ядерные реакторы с использованием Гелия-3 на Луне и энергоэффективные процессоры для достижения огромных вычислительных мощностей. источник


Не знаю, мне кажется, что если такие вещи выносить в основной текст статьи, автора могут начать воспринимать как прорицательницу Вангу. Что не очень-то и хотелось бы! =)
Нет ли у вас здесь противоречия? Ведь когда все будет позади, произойдет intelligence explosion, машина начнет сама себя ускорять, улучшать закон Мура, строить термоядерные реакторы на Луне (это цитата с lesswrong.com)?
Разработка ИИ в одиночку — вещь маловероятная. :-) Меня, честно говоря, тоже посещали похожие мысли после того, как я прочитал историю с шаттлами Гугла, которые очень не нравились местным жителям, некоторые их даже ненавидят — просто за то, что они другие, они поднимают цены и таким образом выселяют жителей из родного города. Понятно, что если люди узнают, чем занимаются некоторые гугловцы, ситуация ухудшится.

Мне кажется, не случайно Курцвейлу нужны данные о 2 млрд. людей, а Легг считает распространение культуры восприятия рисков ИИ одной из самых важных задач.
Известно, что коммерческих разработок у нее нет. Об этой компании неизвестно почти ничего, кроме того, что они занимаются созданием ИИ и изучают строение мозга. Наверно, в ближайшее время я опубликую транскрипции ютубовских лекций основателя DeepMind, Демиса Хассабиса — руки до них пока не дошли. На Слон.Ру есть немного о нем:

Сканируя мозг человека, ученым удалось проследить активность некоторых нейронов все того же гиппокампа и определить местонахождение человека в смоделированной на компьютере виртуальной реальности. Это открытие гипотетически может привести к появлению аппаратов для сканирования нескольких видов человеческой памяти, хотя Хассабис и считает, что риск непрошеного вторжения в сознание человека по-прежнему можно отнести к разряду фантастики.

В последние годы Хассабис занимался в том числе дальнейшими исследованиями технологий сканирования мозга и, судя по всему, продвинулся в этом довольно далеко.
Согласен, что всерьез говорить о рисках вроде бы и рано. С другой стороны, когда мы поймем, что пора? Мне кажется, самое важное что сейчас можно сделать — попробовать сделать прозрачными разработки ИИ, и для этого важно распространять идею.

Один из рисков ЧИИ/AGI — это некорректное обучение + intelligence explosion (когда машина самостоятельно увеличит собственную вычислительную мощность в короткий период времени), в результате которого она, например, может решить, ну не знаю… совершить суицид, взорвать Землю? Почему нет? :-) Люди не делают таких вещей, когда они счастливы, просто ли аргументировать это машине?
Спасибо. А вот мать Тереза наверно и книжных червей любила. Далеко нам до нее :)
Вообще, гугл говорит, что это слова Гете. Если попробовать вложить их в уста матери Терезы, и добавить ее призыв распространять любовь повсюду и начать со своего дома, то мир правда станет чистым.

Информация

В рейтинге
Не участвует
Откуда
Санкт-Петербург, Санкт-Петербург и область, Россия
Дата рождения
Зарегистрирован
Активность