Как стать автором
Обновить
30
21.1

Пользователь

Отправить сообщение

>Возможное решение для этой проблемы описывались здесь https://habr.com/ru/articles/830370/

Ядреная у вас статья.

>LLM открывает новые возможности для воздействия на подсознание методами эриксоновского (цыганского) гипноза благодаря способности отзеркаливать человека. Отслеживание движения глаз позволит ВГК подбирать действия, усиливающие транс на индивидуальном уровне. Не стоит удивляться, что транс может вызвать усовершенствованный PID регулятор, многие относительно простые химические вещества тоже создают транс.

>Вот у существущих нейросетей, да, восприятие конструируется не на основе реальности, а на основе картинок и описаний реальности.

Можно подумать у человека, который проводит весь день в интернете, это иначе.

>тут же тоже надо решать сколько самосознания должно быть у ИИ чтобы назвать его сильным, столько же сколько у людей, столько же сколько у обезьян, столько же сколько у более простых форм жизни

Нет, погодите, самосознание не квантуется))) оно или есть или его нет.

Мы знаем, что мы есть, что мы умрем и мы можем связывать время в прошлое и будущее (через культуру, знаки, письменность, комменты на Хабре).

Обезьяны и более простые формы жизни - нет.

Я не путаю, Федоров пишет о колонизации других планет в "Философии общего дела", ЧАСТЬ IV "В чем наша задача?".

Цитаты кидать не буду, комментарии под этой статьей уже и так избыточно сюрреалистичны.

>Не стоит забывать что человеческий мозг тоже продукт масштабирования сравнить опять же того же человека и шипанзе, понятное дело размер имеет значение на ии этот принцип тоже работает

Вот тут кстати скользкая почва про масштабирование и мозг: мозг неандертальцев был больше, чем мозг homo sapiens (но едва ли они были более мудры), а мозг австралопитеков по объему сопоставим с мозгом шимпанзе (но они уже вели другой образ жизни и были прямоходящими), тут скорее структурно-функциональное переориентирование произошло, и может быть эта метафора нам поможет лучше с ИИ.

Я согласен с вами, что сравнительная оценка параметров и нейронов, в том числе число, упомянутое в статье (там есть ссылка, это блог Microsoft) есть что-то странное и приблизительное. Но это не снимает основного вопроса: а мы точно уверены, что физикализм прав, и когда у ИИ будет примерно столько же или больше нейронов, как у человека, у него появится сознание/мышление/сильность? Или все-таки нет?

Наконец-то нормальные аргументы пошли.

Главное не дойти до концепций русского космиста Федорова, у которого воскрешенные поколения предков колонизируют Марс

>Человечество - нейросеть из человеков, не обладает самостоятельным сознанием, но обладает интеллектом.

Это уже каббала какая-то пошла, при всем уважении.

Про религию квантовых компьютеров, которые все порешат (надо только подождать) стоило бы сделать отдельный материал в таком же ключе.

И тут как бы дело не в количественном росте, а в качественном скачке, чтобы слабый ИИ стал сильным. А в чем этот скачок должен заключаться, и как его можно будет измерить - непонятно. Вот о чем это все. Но мы стопоримся уже на уровне базовых определений (справедливости ради, не только мы, но и многие ученые, упомянутые в статье).

Нет у меня никакой путаницы. Я не спорю, что нейросети это СЛАБЫЙ ИИ.

Тут же в другом дело, в том, что ИИ, как его понимали в течение всего XX века и которого ждали, это СИЛЬНЫЙ ИИ, ИИ в собственном смысле.

А из-за того, что термины сильный/слабый вообще не употребляются (или даже многим не известно), зато всюду где только можно нейросети и ИИ употребляют как синонимы, возникает интересное когнитивное искажение по поводу того, что такое ИИ В ПРИНЦИПЕ, которое (как показывают в том числе комментарии к этой статье) очень сильно. И это вопрос, который практически не обсуждается, и поэтому мне было интересно его поднять.

Так это не логическая бессмыслица, это коан, мы все друг для друга и есть такие философские зомби (субъективный опыт только у каждого свой, а остальных можно понять как индивидов только через эмпатию и проекцию самого себя).

То есть все-таки у нас терминологическая путаница изначально, выходит, и ошибались те, кто формулировал саму концепцию сильного ИИ (и ее отображения в предсказаниях и культуре)?

>А нейрон в мозгу - это приблизительно 1000 параметров

А вот это вы откуда взяли?

Впрочем ладно, действительно цифры неважны. Оставим их.

>Вопрос всё равно останется: к чему стремление досрочно зафиксировать поражение?

Это полемическая предпосылка, чтобы вообще поднять вопрос насчет сонного технооптимизма (надо просто потерпеть и не бухтеть, ученые нарастят мощности и разберутся): а мы точно уверены, что вот еще лет 50-100, и оно точно заработает как надо, и будет нам Скайнет? Или может быть все-таки что-то не так в самой постановке вопроса и его понимании?

Хорошо, не имею ни малейшего понятия, ок, пожалуй на этом закончим.

Тогда мы совершаем круг и возвращаемся обратно: как определить истинный AI и как мы поймем, что он истинный?

Информация

В рейтинге
378-й
Зарегистрирован
Активность