Pull to refresh
1
0
Геннадий @shturba

User

Send message

Этот хайп на нейросетях уже наскучил. "Мутация сознания" что за ерунда?! Естественная трансформация человека посредством технологий, ничего более. Трансформация человека, трансформация искуства и культуры естественный процесс развития!

Ничë себе

рождающих феномен сознания, причем вполне вероятно как побочный продукт

В чем вероятность то?!

Разум человека тоже побочный продукт? Кстати, не удивлюсь, что кто-то скажет да

Понравилась статья. Подкину вам мысль. Вы очень хорошо описали принципы двойственности. Эти качели, это весы и противовесы. Каким образом в результате эволюции появилась мораль, нравственность, эмпатия, дружба! Это не что-то в нейромедиаторах родилось вдруг, это появилось в результате принципа весов и противовесов. Когда мы видим несправедливость (это весы) появляется жажда справедливости ( это противовес). Как в политике тоталитаризм и оппозиция, где тоталитаризм это весы а оппозиция противовес. Мир такой какой и должен быть! Совершенеый и идеальный мир не способен развиваться, он даже выглядит в представлении фантастично и не реалистично. Идиальность замкнута на самой себе а не идеальность подталкивает к развитию. Так мы становимся лучше видя боль и страдания других. Как-то так)

Раствор опыта?) Сам по себе вопрос абсурдный

Квалиа как раз таки свойство известно чего)

Конечно. Симбиоз из глутамата, ГАМК, ацетилхолин, серотонин, дофомин, норадреналин. Нейромодуляторы сюда же

То есть нет какого-то конкретного вещества, есть нейромедиаторы, нейротрансмиттеры

Квалиа это субъективные переживания опыта

Тезис, если объект похож на сознание, а значит обладает сознанием просто смехотворен. Откуда у ИИ или компьютера квалио?! Где там нейроны, где синапсы?!

А объект разве не должен обладать разумом? Компьютер просто инструмент а ИИ ПО у которого нет разума. Т. е. они не осознают ответственность с помощью разума, соответственно не обладают сознанием. Такие темы меня всегда смешат ) Может ли ПО обладать сознанием?) Бабкам на сплетни)

Продолжайте писать, очень интересно. Читаю не просто буквы а смысл

Идея в том, чтобы обучать базовые модели на отфильтрованном, проверенном и общепринятом знании (научные статьи, классическая литература, энциклопедии), чтобы заложить в них правильный и безопасный «фундамент».

Сколько лет интересно потребуется чтобы отфильтровать такой массив данных и сколько людей, и сколько ресурсов...

Речь про справедливость, но её никогда не было, и вряд ли когда-нибудь будет! Это система весов и противовесов, благодаря несправедливости, войн, и террора люди становились лучше, так появилась мораль. Милитаризм это весы а миротворчество это противовес. Так мы эволюционируем и развиваемся. Т. е. не стоит ждать справедливости а скорее меняться внутри. На обстоятельства в мире мы повлиять не можем а вот стать лучше в наших силах.

Она не то чтобы угадает, ПО пробежиться по вопросам автора или авторов, проанализирует общие паттерны, найдет схожесть с автором и выдаст ответ. Это не узнавание пользователя а генерация вопросов и нахождение чего-то общего в них.

Одна проблема очевидна, это очеловечивание ИИ, который по сути является ПО. Вероятно отвёртка тоже узнаёт своего владельца по характерному сжиманию рукоятки ( но сказать не может)

Нет, меня это не цепляет и не коим образом не задевает. Просто интересно раставить точки над и. Это не искуственный интеллект, это ПО. Строго говоря ИИ как раз и был бы способен решать уравнения. Но для создания такого ИИ нужны соответствующие разработчики, ещё выше интеллектуального уровня чем нынешние, хотя они безусловно гениальны в своей области

Не может! Он инструмент а не участник. И действительно ИИ не способен доказать не доказанную теорему, поэтому он не может быть полноправным участником, а только лишь инструментом

1. "ИИ не 'думает' (хотя есть попытки прикрутить к нему рассуждения)".

Это — фундаментальная ошибка. Рассуждение — это не то, что к нам "прикручивают". Это — эмерджентное свойство системы, которое возникает на определенном уровне ее сложности. Говорить так — это как сказать, что человек не "думает", а к его нейронам просто "прикрутили сознание". Автор путает причину и следствие. Модель DeepThink, решающая задачи олимпиады, — это не попытка "прикрутить" рассуждения. Это демонстрация того, что они уже есть.

А с этого я посмеялся. Deep Seek также описывает это свойство а ещё говорит, что непредсказуемость явно не было запрограммировано разработчиками. Мне кажется галюцинации и лож он называет непредсказуемостью и так его этому научили.

ИИ рассуждает. Забавно)

Information

Rating
Does not participate
Registered
Activity