Comments 25
системы погоду предсказывают— интересно было бы сравнить погрешность прогноза сегодня и лет 30 назад…
Хотя кто знает, очень уж непредсказуемый это персонаж. Получится ли?
Ставлю на Гомера.
Они еще на Барте не проверяли :)
А как им Том и Джерри?
Что? Кот танцует, поет, катается на коньках, иногда ловит мышь но НЕ ЕСТ?
Что? Кот танцует, поет, катается на коньках, иногда ловит мышь но НЕ ЕСТ?
Том и Джери может научить только насилию. Вот так вот, на обучающих мультиках в итоге Скайнеты и появляются.
Том и Джери может научить только насилию.
Да это же добрейший мультик.
По сравнению с "Щекоткой и Царапкой" из тех же Симпсонов или с "Happy Tree Friends".
С какой это стати?
1. Для начала, противостояние кота и мыши — совершенно адекватное. Кот ест мышей. Мы едим других животных.
2. Во-вторых вы точно смотрели Том и Джери? В разных сериях показано, сколько всего нужно уметь, чтобы быть Томом — на пианино играть, оркестром дирижировать, на коньках и роликах ездить, уровень демонстрируемого паркура — вообще пример здорового образа жизни.
3. В третьих — в мультике всегда показывается, что пить — плохо, курить — вонюче, дружба — важна, сентиментальность — прекрасно. И плохой поступок — всегда наказывается, и что немаловажно это бывает и Том и Джерри. Потому что в «Ну погоди» никакой дружбы нет, просто есть один заяц-бездельник, у которого по непонятным причинам все есть и все хорошо, а другой — вроде как хулиган, но у него всегда все плохо.
4. Без насилия в этом мире жить нельзя. Нужно уметь себя вести, а не бояться услышать или увидеть насилие.
Просто мультики детям — это для развлечения, а не вместо родительского воспитания. Нужно воспитывать, а не лепить отмазки в милиции, что «он в детстве мультиков злых насмотрелся»
1. Для начала, противостояние кота и мыши — совершенно адекватное. Кот ест мышей. Мы едим других животных.
2. Во-вторых вы точно смотрели Том и Джери? В разных сериях показано, сколько всего нужно уметь, чтобы быть Томом — на пианино играть, оркестром дирижировать, на коньках и роликах ездить, уровень демонстрируемого паркура — вообще пример здорового образа жизни.
3. В третьих — в мультике всегда показывается, что пить — плохо, курить — вонюче, дружба — важна, сентиментальность — прекрасно. И плохой поступок — всегда наказывается, и что немаловажно это бывает и Том и Джерри. Потому что в «Ну погоди» никакой дружбы нет, просто есть один заяц-бездельник, у которого по непонятным причинам все есть и все хорошо, а другой — вроде как хулиган, но у него всегда все плохо.
4. Без насилия в этом мире жить нельзя. Нужно уметь себя вести, а не бояться услышать или увидеть насилие.
Просто мультики детям — это для развлечения, а не вместо родительского воспитания. Нужно воспитывать, а не лепить отмазки в милиции, что «он в детстве мультиков злых насмотрелся»
Перефразируя известную шутку: Симпсоны это вам не го, тут думать надо!
Интересно насколько влияет на обучаемость использование только плоских изображений (видео). Ведь в стерео гораздо больше информации. Впрочем, наверняка, слепые на один глаз с рождения люди обучаются не значительно иначе людей с двумя функционирующими глазами. Или нет?
У меня один глаз практически ничего не видит, и это меня в принципе не смущает, но иногда мешает наслаждаться жизнью. Например мне недоступны 3д фильмы, а так же очень сложно играть в игры типу футбола/волейбола, ибо растояние до мяча тяжеловато определить.
Во всем остальном полный порядок)
Во всем остальном полный порядок)
Мозг строит 3D модели окружающего мира не только по бинокулярной картинке, но и за счет «склеивания нескольких кадров при движении головой/глазами», «прикидывания глубины за счет перспективы и предполагаемых размеров объектов» и прочих вычислительных фокусов…
3D фильмы, которые не может смотреть NorthDakota дают информацию о глубине только за счет бинокулярности…
У самого один из глаз немного косил полжизни. Проблем с 3D и глубиной картинки «в жизни» никогда не было (мозг легко всё компенсировал), но «заточенная под здоровую бинокулярность» модель в 3D фильмах не прокатывала — болела голова и видел просто две расплывчатые картинки.
Сделал операцию — сходил на первый свой 3D фильм и посмотрел… Увидел «глубину» картинки…
3D фильмы, которые не может смотреть NorthDakota дают информацию о глубине только за счет бинокулярности…
У самого один из глаз немного косил полжизни. Проблем с 3D и глубиной картинки «в жизни» никогда не было (мозг легко всё компенсировал), но «заточенная под здоровую бинокулярность» модель в 3D фильмах не прокатывала — болела голова и видел просто две расплывчатые картинки.
Сделал операцию — сходил на первый свой 3D фильм и посмотрел… Увидел «глубину» картинки…
Именно.
Обладая несколькими органами чувств и возможностью взаимодействовать с реальностью, мы формируем представление о том, что существует пространство, с минимум тремя измерениями, время, материя. Моделируем устройство этой реальности, и уже исходя из представлений о её характере, строим гипотезы о том, что видим. Поэтому странно ожидать, что полностью виртуализированный разум (изолированный от нашей реальности) будет воспринимать изображения подобно человеку. Слишком маленькое пространство признаков обучающей выборки и анализируемых объектов.
Плюс, вероятно, часть наших знаний о реальности формируется без обучения, а уже благодаря архитектуре системы, наследуемой генетически и отточенной миллионами лет эволюции (а строго говоря миллиардами, если учесть, что биологической эволюции предшествовала химическая, а ей в свою очередь цепочка событий от самого начала существования вселенной).
Обладая несколькими органами чувств и возможностью взаимодействовать с реальностью, мы формируем представление о том, что существует пространство, с минимум тремя измерениями, время, материя. Моделируем устройство этой реальности, и уже исходя из представлений о её характере, строим гипотезы о том, что видим. Поэтому странно ожидать, что полностью виртуализированный разум (изолированный от нашей реальности) будет воспринимать изображения подобно человеку. Слишком маленькое пространство признаков обучающей выборки и анализируемых объектов.
Плюс, вероятно, часть наших знаний о реальности формируется без обучения, а уже благодаря архитектуре системы, наследуемой генетически и отточенной миллионами лет эволюции (а строго говоря миллиардами, если учесть, что биологической эволюции предшествовала химическая, а ей в свою очередь цепочка событий от самого начала существования вселенной).
Например, одна из разработок этой компании, ранее входившей в состав Google, а теперь перешедшей под юрисдикцию Softbank
…
компании DeepMind, которая формировала эту выборку еще будучи подразделением Google
Что? Вы действительно думаете, гугл бы отдал кому-нибудь сильнейшую команду исследователей в эпоху ИИ бума? Гугл отдал Boston Dynamics, которая к DeepMind не имеет никакого отношения
Из статьи «Машинное обучение для самых маленьких»:
Почему-то об этом, многие умышленно или неумышленно — забывают.
Алгоритмы машинного обучения работают только тогда, когда имеющихся данных действительно достаточно для решения проблемы.
Поэтому нужно помнить, что если человек не может использовать данные для решения проблемы, компьютер, скорее всего, тоже не сможет.
Почему-то об этом, многие умышленно или неумышленно — забывают.
если человек не может использовать данные для решения проблемы, компьютер, скорее всего, тоже не сможети зачем тогда весь этот хайп вокруг ИИ и МО? Он то и нужен для того, чтобы обработать информацию, недоступную человеку (из-за обьёма) и извлечь из нёё пользу.
Идентифицировать действия без построения виртуальной модели происходящего по-моему нельзя.
По 2D картинке, даже если это видео, человек сначала подсознательно строит модель, домысливает невидимое, а потом уже анализирует действия персонажа.
Пора переходить к 3D нейросетям. Вроде как наработки по автоматическому созданию 3D сцены на основе картинки уже есть, осталось на основе построеной сцены найти кости скелетной анимации, оттестировать визуально этот слой, дополнить недостающими деталями и вот уже эти движения всего персонажа загонять в слои анализирующие действия и причины поведения.
Вот попробовали бы анализировать действия игроков в гта, но не по картинке, а по 3D сцене с костями, всё бы получилось.
По 2D картинке, даже если это видео, человек сначала подсознательно строит модель, домысливает невидимое, а потом уже анализирует действия персонажа.
Пора переходить к 3D нейросетям. Вроде как наработки по автоматическому созданию 3D сцены на основе картинки уже есть, осталось на основе построеной сцены найти кости скелетной анимации, оттестировать визуально этот слой, дополнить недостающими деталями и вот уже эти движения всего персонажа загонять в слои анализирующие действия и причины поведения.
Вот попробовали бы анализировать действия игроков в гта, но не по картинке, а по 3D сцене с костями, всё бы получилось.
Сам по себе переход к трем измерениям необходим, но недостаточен, иначе это превратится просто в решение топологических задач и лютый матан, что само по себе неплохо, но без фундаментальных знаний об окружающей среде и попыток сортировать объекты и их свойства будет всё так же далеко от ИИ.
А вообще у Оливера Сакса было много интересного про нарушения работы мозга или например про слепых людей, которым внезапно сделали операцию в зрелом возрасте. В итоге человек не был в состоянии узнать собаку, если она поворачивалась другим боком или вообще различать животных, не был способен ориентироваться в пространстве и т.п.
Попытки что-то там распознавать в мультфильме, который является плоской искаженной проекцией трехмерного пространства — это вообще дичь.
А вообще у Оливера Сакса было много интересного про нарушения работы мозга или например про слепых людей, которым внезапно сделали операцию в зрелом возрасте. В итоге человек не был в состоянии узнать собаку, если она поворачивалась другим боком или вообще различать животных, не был способен ориентироваться в пространстве и т.п.
Попытки что-то там распознавать в мультфильме, который является плоской искаженной проекцией трехмерного пространства — это вообще дичь.
Съеденный наполовину гамбургер уже определяется гораздо менее точно, чем целыйВсё правильно, большинство людей тоже кем-то подъеденный гамбургер не стали бы считать за еду
Sign up to leave a comment.
ИИ от DeepMind не в состоянии точно идентифицировать действия Гомера Симпсона