Статьи, что вы сбросили и другие современные практики это эффекты работы интеллекта, а не его спецификации. Нейросети например это численное решение системы диф. уравнений. У них как минимум нет тормозящих аксонов. Не говоря о других механизмах.
Суть в чем — органы чувств кодируют информацию в последовательности, а мозг уже эти последовательности обрабатывает. Из предложенного вами Q-Learning ближе всего к этому. Но, как я уже сказал, «есть нюансы».
О! Приятно услышать компетентного человека.
Я имел ввиду скорее медиа среду, СМИ, интернет, в котором в итоге обитает «ИИ». Каким образом все это повлияет на нас и наше взаимодействие с ним и друг с другом.
«хранилища контекстов» — что вы имеете ввиду?
Развернуто придется книгу писать.
Подумайте вот над чем: мозг — это не нейронная сеть, мозг это «магнитофонная пленка».
Но есть нюансы :)
Например, когда кусочки сигнала повторяются, появляются ветвления алгоритма (если-то). Имея статистику таких цепочек и переходов получаем вероятности наступления события в рамках опыта индивида.
Длина цепочки отображает опытность индивида и контекст.
Все это потому, что строят очень простые (рефлексирующие) модели «если-то».
Причем «то» зачастую 0 или 1.
Жизнь — это цепочки гораздо посложнее и каждое «если» может радикально менять конечный результат. Спектр красок шире.
Формировать признаки различных визуальных объектов можно простым скольжением окна по картинке и ведя статистику. Для этого не нужна нейросеть.
Далее отобрать уникальные образцы для каждого образа и (или) общие. Можно как всегда использовать нормальное распределение.
Далее можно делать иерархию признаков по тому же принципу.
Потом эмбедить по id образцов.
Всё, что видел — это иерархический RL, где на нижнем уровне другие RL, но они все сделаны вручную, то есть система не может масштабироваться произвольным образом
А просто записать последовательность тензоров дискретных состояний пробовали?
Дискретных, а не непрерывных наград итп.
Потом их ситуативно воспроизводить. Для определения релевантности паттерна ситуации использовать НС.
Точняк!
Осталось эти звуки — сигналы записать. Хотя наверняка уже есть много в инете. Разметить их и классифицировать.
Добавить реакции и алгоритмы действий, которые будут вносить коррективы в поведение авто.
Абсолютно согласен.
Более десяти лет назад учил нейронки генетическим алгоритмом довольно успешно, потому что не разобрался в back propagation. Заметил, что последний не всегда качественно обучает.
Надо делать много подходов — разных сетей, которые по факту инициализируются рандомными весами. По сути генетич. алгоритм.
Прошло много лет. Повторил дифуры, разобрался в back propagation и другой математике. Видел как рос DeepLearning и развивались методы оптимизации.
Ой! А что ж это? Dropout! Опять пришли откуда начинали.
P.S. Мозг это не полносвязная НС. В этом зарыт, я бы сказал, сакральный момент.
но я не вижу, чтобы на рынке электрокаров была бы хотя бы чуть-чуть похожая на Амазон монополия
Как сказать. Тесла это не просто автомобиль. Это инфраструктура. Они раскидали свои заправки зарядки по всей планете. Особенно США и Европе.
Пусть самих авто еще не так много.
Как говориться: «Я первый спросил».
Но ладно. Пойду на уступки.
Вы сами хотите ездить с текущим уровнем автопилота? Сядете на заднее сиденье такой машины? Поедете по Москве?
Да. Пожалуй важно иметь некое асинхронное или даже параллельное устройство памяти. Вопрос лишь на каком уровне детализации это делать.
Если мы говорим про ИИ и нейросети и проводим параллели, то у мозга структура во взрослом состоянии практически не меняется.
Если пойти по этому же принципу, то надо формировать некие блоки — нейросетки или им подобные структуры со своим вычислителем и памятью. ASIC'и.
Возможно не придется так заморачиваться с DRAM.
Числа-числа… Вот вам числа!
Для повышение точности системы после 80% надо ее усложнять на порядок на каждый процент. А после 90% еще сильнее. Сложность растет экспоненциально.
50% — это можно рандомно рулем крутить и так же давить педали.
Когда речь идет о статистике в миллионы случаев, то каждая неточность в 1% это тысячи жертв.
И почему только два? Как вы думаете, что произойдет если количество контекстов увеличить скажем до 1000?
Суть в чем — органы чувств кодируют информацию в последовательности, а мозг уже эти последовательности обрабатывает. Из предложенного вами Q-Learning ближе всего к этому. Но, как я уже сказал, «есть нюансы».
А в чем преимущество данного подхода? Он быстрее чем...? Проще для ввода данных и разметки? Какова масштабируемость?
Я имел ввиду скорее медиа среду, СМИ, интернет, в котором в итоге обитает «ИИ». Каким образом все это повлияет на нас и наше взаимодействие с ним и друг с другом.
«хранилища контекстов» — что вы имеете ввиду?
Подумайте вот над чем: мозг — это не нейронная сеть, мозг это «магнитофонная пленка».
Но есть нюансы :)
Например, когда кусочки сигнала повторяются, появляются ветвления алгоритма (если-то). Имея статистику таких цепочек и переходов получаем вероятности наступления события в рамках опыта индивида.
Длина цепочки отображает опытность индивида и контекст.
Причем «то» зачастую 0 или 1.
Жизнь — это цепочки гораздо посложнее и каждое «если» может радикально менять конечный результат. Спектр красок шире.
А когда это сентимент анализ и рекомендации перешли в категорию «понимать»?
Но похоже это не умеют делать даже многие люди.
Интересно клиповое мышление перешло откуда куда.
Далее отобрать уникальные образцы для каждого образа и (или) общие. Можно как всегда использовать нормальное распределение.
Далее можно делать иерархию признаков по тому же принципу.
Потом эмбедить по id образцов.
А просто записать последовательность тензоров дискретных состояний пробовали?
Дискретных, а не непрерывных наград итп.
Потом их ситуативно воспроизводить. Для определения релевантности паттерна ситуации использовать НС.
Но я думаю Тесла как-то участвовала в этом.
Осталось эти звуки — сигналы записать. Хотя наверняка уже есть много в инете. Разметить их и классифицировать.
Добавить реакции и алгоритмы действий, которые будут вносить коррективы в поведение авто.
Ах да!
«Как завоевывать друзей и оказывать влияние на людей» Дейл Карнеги.
Более десяти лет назад учил нейронки генетическим алгоритмом довольно успешно, потому что не разобрался в back propagation. Заметил, что последний не всегда качественно обучает.
Надо делать много подходов — разных сетей, которые по факту инициализируются рандомными весами. По сути генетич. алгоритм.
Прошло много лет. Повторил дифуры, разобрался в back propagation и другой математике. Видел как рос DeepLearning и развивались методы оптимизации.
Ой! А что ж это? Dropout! Опять пришли откуда начинали.
P.S. Мозг это не полносвязная НС. В этом зарыт, я бы сказал, сакральный момент.
Как сказать. Тесла это не просто автомобиль. Это инфраструктура. Они раскидали свои
заправкизарядки по всей планете. Особенно США и Европе.Пусть самих авто еще не так много.
Можно уже покупать?
Но ладно. Пойду на уступки.
Вы сами хотите ездить с текущим уровнем автопилота? Сядете на заднее сиденье такой машины? Поедете по Москве?
Если мы говорим про ИИ и нейросети и проводим параллели, то у мозга структура во взрослом состоянии практически не меняется.
Если пойти по этому же принципу, то надо формировать некие блоки — нейросетки или им подобные структуры со своим вычислителем и памятью. ASIC'и.
Возможно не придется так заморачиваться с DRAM.
Каким образом в вашей концепции выделяются и применяются паттерны (поведения)?
Для повышение точности системы после 80% надо ее усложнять на порядок на каждый процент. А после 90% еще сильнее. Сложность растет экспоненциально.
50% — это можно рандомно рулем крутить и так же давить педали.
Когда речь идет о статистике в миллионы случаев, то каждая неточность в 1% это тысячи жертв.