All streams
Search
Write a publication
Pull to refresh
-7
0
Send message
Мои 5 копеек. Редизайн, мягко говоря, ужасен — все даже хуже, чем на Тостере.

1) Планшетизация — ужасно. Честно. Responsive дизайн придумали именно для этих целей. Показывать мобильному юзеру десктопную версию сайта — это плохо. Показывать десктопному юзеру мобильную версию сайта — тоже плохо. Когда ж до людей дойдет эта простая истина!

2) Пиктограммы абсолютно неочевидные.

Вердикт: если дизайнерам и верстальщикам нечем больше заняться и работы у них нет — то может не мучить людей и просто их отправить в отпуск?..
1) Если сильно кому-то будете нужны, вас найдут в любом случае. Не сегодня, так через 10 лет.

2) Плюс Hola — только в относительном удобстве использования. Хотя… Вопрос автору — у вас же нет поддержки сторонних приложений, например IM? Тот же TOR позволяет пустить практически любой трафик через себя. У вас можно использовать только браузер, насколько я понял. То есть всякие скайпы, аськи и прочее не поддерживаются, а это большой минус.
Давайте будем тогда до конца объективными — на Хабре собралась уж точно не среднестатистическая аудитория РФ. Понятное дело, что здесь несогласных с законом будет больше, чем в среднем по России. Не знаю уж там насчет этих 5%, практически уверен, что там тоже не все «чисто» — но опрос на Хабре тоже не будет объективным.

P.S. Ни в коем случае не поддерживаю тот законопроект, просто хочется математической справедливости.
Поэтому что она изначально создавалась как коммерческий продукт. Дальше создатели (тогда еще 10 gen) увидели, что профит они так не получат, и решили зарабатывать на поддержке и (возможно) SaaS. Посмотрите стоимость Enterprise Subscription у них на сайте.

Подобным путем кстати движутся и MemSQL. Только у Монги получилось лучше — видимо, пиарщики получше сработали.

Бизнес-модель здесь до безумия проста — подсадим всех на свой продукт, а потом будем продавать саппорт, раз уж продавать продукт не получается. 10 gen решили не нацеливаться на корпоративный сегмент, где живет Oracle, а захватить толпу. Толпа всегда больше, чем bloody enterprise, поэтому отсюда такая популярность Монги.

Кстати, примечательный факт — 10 gen переименовались в MongoDB Inc. Думаю, очевидно, что весь бизнес этой компании построен вокруг одного-единственного продукта. И было бы наивно думать, что они не стимулируют искусственно спрос — ведь даже переименование компании призвано увеличить узнаваемость бренда вообще и компании в частности.

Ну а создатели остальных NoSQL-баз данных либо хуже пиарятся, либо не заинтересованы в бизнесе вообще, либо не успели вовремя занять нишу — и теперь там сидит Монга (до поры до времени).

Вердикт: у 10 gen (называю их так по привычке) хорошие пиарщики, жаль, что они не пишут код.
Это в Сингапуре-то дешевле России? Опять говорим «Россия» а подразумеваем «Москва»? Сингапур, по меркам российского провинциального города, очень дорогой. Дешевая наверное только еда, да и то не везде.

Чтобы не быть голословным — аренда квартиры в Новосибирске начинается от 20 тыс. руб в месяц (вполне нормальный вариант), в Сингапуре я на сайтах объявлений что-то приличное только от 60 тыс. видел.
Ок, оставим только «модная». Вокруг Монго куча шума и пиара (понятно почему). По факту же у нас простейшие селекты на миллиард записей работали очень долго, по сравнению с Кассандрой. С записью дела обстоят настолько плохо, что просто диву даешься, как такое кто-то может всерьез использовать для чего-то иного, кроме простенького сайта.
Вы опять оговорились =) «Нейрон».

Когда Вы увидите такую программу — возможно, будет уже слишком поздно, т.к. от нее до сверхмощного ИИ (о чем и была статья) не так уж далеко.

Я не хочу никому ничего доказывать, почитайте хотя бы про neural networks backpropagation — это и есть модель самообучения и самокоррекции. Сопоставив ряд признаков одного и того же объекта, мощная нейросеть будет способна его угадать в любом виде, доступном для человеческого понимания — хоть поп-арт, хоть инсталляция. Мощность нейросети и ее обучение — вот и все факторы. Количественные, а не качественные.
Ситуация даже хуже. Нужно добавить предысторию.

Пункт 0: «я слышал, что NoSQL — это модно и круто, а SQL — это старый отстой...»
Еще одна NoSQL база данных? Нет уж, увольте. Поработав очень плотно с кучей разнообразных данных в течение года, перепробовав множество инструментов, я пришел к выводу, что всю эту новомодную шумиху нужно жестко отсеивать. Классов задач не так уж и много, и в каждом уже есть свой лидер, проверенный временем. Пусть он не идеален, зато по нему уже много документации, большое комьюнити, библиотеки и т.п.

Программист должен быть немного консерватором, и уж точно не должен гоняться за новомодными штучками как девушка за чехольчиками для айфона.

Есть у меня друг один, кодить сразу стал на RoR, использует MongoDB… Впрочем, не буду о грустном. Отсеивайте «модные» тренды, если о чем-то постоянно везде говорят — это не значит, что эта вещь Вам подходит.

За время работы с самыми разнообразными данными (среди них и бигдата, чего уж там) — выделил для себя 3 отлично зарекомендовавших себя инструмента: Postgres, Redis, Cassandra. Каждый из них отлично подходит к своему кругу задач. И больше ничего не надо. Да, может быть какая-нибудь там lightningDB и показывала производительность чуть больше Редиса, но возиться с ней, ловить ее баги, переписывать на нее код — нет, спасибо, не надо.
1) распознавание образов, распознавание паттернов поведения, звуков и ситуационного контекста — 4 разные области. Создайте мощную нейросеть с разными «отделами» (как в головном мозге), обучите ее всем типам распознавания, и она станет легко угадывать мышек и в комиксах, и в играх, и в реальной жизни. Дайте ребенку мультик, в котором мышка ревет как тигр, и покрыта пятнами — ребенок может и не догадаться, что это мышка, а подумает, что это какая-то неведомая х-ня.

2) давно существуют уже механизмы обратной связи в нейросетях. Другое дело, что в большинстве задач пока что НЕ требуется самостоятельно развитие нейросети. Они затачиваются под конкретную задачу с неизменными входными данными. Во многом это объясняется слабостью современных вычислительных мощностей, во многом — отсутствием огромного бизнес-спроса, но основное — это необходимость длительного обучения. Люди учатся десятки лет, нейросети — дни и месяцы.

Нейросети могут адаптироваться. Просто это пока что не особенно нужно.
Нейрон в головном мозге == нейрон в голове. По определению, т.к. головной мозг находится в голове.

Сейчас компьютеры вполне успешно отличают рисунок кошки от рисунка собаки. Повторюсь, дело лишь в количественной разнице, не в качественной. Недавний эксперимент гугла показал распознавание образов на уровне 30% — что для крошечной (по сравнению с мозгом) нейросети не так уж плохо. Увеличьте нейросеть до размеров мозга — и она станет угадывать образы на картинках, возможно, лучше человека. А если учесть, что на обучение ребенка тратится лет 20 (как минимум), а искусственные нейросети обучаются в десятки раз меньшее время — то становится понятно, что у человеческой нейросети есть еще и дополнительный бонус в виде более хорошего обучения.
Не совсем. В современных нейросетях количество нейронов на порядки меньше того же количества в человеческом мозге. Задача создания дейтсвительно мощного ИИ — всего лишь количественная. Обучить его, как ребенка — и дальше он сам начнет генерировать новые парадигмы, устанавливая новые связи, просматривая и анализируя видео, книги, аудиозаписи и т.п.

Лет 30 назад никто бы даже не смог подумать, что в 2014 году компьютер научится распознавать изображения или слова даже лучше, чем человек. И это с нашими современными примитивными нейросетями! А что будет, если мы увеличим их сложность в тысячи раз? В миллионы?

Все, что происходит в сознании человека — всего лишь результат работы сложной нейросети, сдобренной обратной связью гормональной системы.
Опасность в том, что ИИ — теоретически — сможет эволюционировать гораздо быстрее, и станет умнее человека в миллионы раз за считанные мгновения.
ИИ должен чувствовать как минимум одну эмоцию — желание помочь людям. В противном случае он, образно говоря, убежит в лес и будет жить в пещере. Или просто будет «молчать» на все вопросы.

Мотивация «помощь» — штука опасная. Даже люди могут убивать других людей, искренне считая, что помогают им.

Где гарантии, что ИИ не поймет идеи буддизма — «жизнь это страдание» — слишком буквально, и не решит избавить все человечество от жизни? А что, искреннее желание помочь.

Через миллионы итераций даже самые простые нейросети могут начинать вести себя непредсказуемо — говорю Вам как человек, знакомый с технической стороной дела. Ограничители — «не навреди» — очень условны, и четко сформулировать критерии «вреда» пока что никто не смог. Об этом и речь — как создать мощный ИИ и сделать так, чтобы он гарантированно не навредил.
«Технологическая сингулярность — предполагаемый некоторыми исследователями короткий период чрезвычайно быстрого технологического прогресса». Давайте не будем придираться к словам, в миллион раз быстрее или в миллиард. Исследователи, работающие над ИИ, хотят сделать его максимально «умным» — думаю, не надо объяснять, почему. Как взрослый может легко обмануть ребенка, так и всего лишь на порядок более «умный» ИИ — теоретически — сможет с легкостью обмануть взрослого, скрыв, в том числе, свои замыслы. Даже люди могут спокойно скрывать свои намерения — детектировать маньяков и грабителей в обычной жизни вроде бы никто не научился.

Поймите, никто не утверждает, что ИИ будет враждебен по отношению к человечеству. Но создать его — означает выпустить джина из бутылки. Люди не смогут понять ИИ, его мотивы, устройство его «сознания» (люди даже свое-то сознание с трудом понимают — психология далеко не точная наука). А раз они не смогут его понять, то не смогут понять и его планов и целей.
Второй комментарий — не мой. Я ничего не предсказывал.

Если есть даже небольшая вероятность уничтожения человечества — создание ИИ гораздо опаснее возможной пользы от него.
Присоединяюсь к вопросу. Между эмоциями и логикой очень много общего. Эмоции — это логика на уровне «биоса», изначальной генетической программы, присущей всем живым организмам вообще и человеку в частности. Где и когда заканчиваются эмоции и начинается логика, понять очень сложно (это я имел в виду не философию, а нейрофизиологию).

Проблема с ИИ состоит в том, что он скорее всего будет функционировать на основе нейросетей, потому что все остальное — лишь экспертные системы, пусть и довольно сложные. А раз так — то в схеме ИИ невозможно будет точно выделить области, отвечающие за что-либо конкретное. И если даже получится более-менее очертить границы, то удалить это будет очень сложно. У человека то же самое — в каком конкретном месте мозга мы генерируем агрессию? А операции умножения или сложения? А распознавание изображений? Сказать точно нельзя, можно ткнуть пальцем в лобную долю или к примеру гипоталамус, но просто так вырезать эту область, не порушив всю схему, практически нельзя.

К сути вопроса об эмоциях. Тут еще один нюанс. Есть мнение, что человек вообще в принципе чего-то делает только по причине наличия у него эмоций — ему хочется есть, дышать, развлекаться и т.п. Уберите эмоции — и человек просто ничего не будет делать. Для ИИ этот вопрос более чем существенен. Раз уж мы хотим сингулярность, то ИИ должен «хотеть» развиваться — а значит, появляются эмоции. И не факт, что инженеры смогут как-то ограничить появление агрессии или злости — после миллионной «итерации» развития нейросети очень часто начинают вести себя абсолютно не так, как того хотели создатели — перестают распознавать образы, к примеру, или думают, что «5» это «1». В случае же эмоций «любовь» может запросто превратиться в «ненависть» (кстати, у людей это тоже бывает).

Основная проблема людей, судя по комментариям — они все еще думают, что ИИ будет чем-то похожим на навороченный компьютер. На самом деле сингулярность в контексте ИИ означает то, что ИИ за считанные мгновения «эволюционирует» из одноклеточного до уровня человека, и дальше. Люди просто не могут оценить что это может означать — создать существо, в миллионы (миллиарды?) раз умнее себя. И еще одно непонимание — это то, что практически невозможно жестко задать «ограничители», которые бы предотвратили всякую возможность катастрофы. Все ошибаются, ИИ может ошибаться тоже, и предпринять какие-то (как ему кажется, правильные и «хорошие») действия, которые тем не менее приведут к катастрофе. И самое смешное, что люди с их ограниченным интеллектом не смогут предугадать последствия этих решений.
В статье шла речь о сингулярности ИИ, а это такая штука, которая сделает любой ИИ в миллионы раз умнее любого из людей за считанные секунды. Человечество просто не успеет ничего сделать.
Это все понятно. Речь не о тараканах, а о том, что поступки существ, которые «умнее» нас в миллионы раз, мы просто не сможем понять, объяснить или предугадать. Пример — улитка вряд ли сообразит, что сделает увидевший ее человек и почему — куда пойдет, что скажет, пройдет мимо или наклонится рассмотреть ее и т.д. и т.п.
И именно поэтому создание мощного ИИ — это игра с огнем. Потенциальный вред гораздо больше потенциальной пользы. Если даже горстка людей путем нехитрых (с точки зрения ИИ уж точно) манипуляций заставила миллионы людей убивать другие миллионы — то для ИИ это будет проще простого. ИИ совсем не обязательно захочет уничтожить человечество, но если захочет — то он это сделает практически со 100% гарантией.

Information

Rating
Does not participate
Registered
Activity