Information
- Rating
- 43-rd
- Location
- Паттая, Чон Бури, Таиланд
- Date of birth
- Registered
- Activity
Specialization
Фулстек разработчик, Разработчик приложений
Старший
From 2,000 $
C#
.NET
Алгоритмы и структуры данных
Многопоточность
Оптимизация кода
Системное программирование
Прикладная математика
Базы данных
Высоконагруженные системы
Проектирование архитектуры приложений
Очень странная конструкция предлагается. Я не вижу, где её нельзя заменить на более эффективные уже существующие устройства.
«читать мысли», видеть скрытое или смотреть на мир чужими глазами (особенно глазами животных-тотемов) считалась прерогативой мистики, магии и шаманских практик.
Это отсылка к классической статье про исследование сознания — Что значит быть летучей мышью?
Статический конечно.
У людей мозг буквально за несколько минут привыкает думать что резиновая рука это их собственная рука и она может чувствовать, и если её ранить, это как ранить настоящую руку. Знаменитые опыты по подмене руки на резиновый муляж.
Так что как субъект ты будешь себя продолжать считать тем же самым. При плавной подмене, ты подмену даже не заметишь. При резкой подмене, это будет для тебя как заснул в одном теле, а проснуться в другом. Если исходное сознание будет хорошо симулироваться, то быстро привыкнешь и просто посчитаешь себя субъектом у которого прошлый опыт это опыт субъекта с которым ты непрерывно связан личными воспоминаниями. При этом таких же как ты субъектов теперь может быть много и в этом конечно очень большой моральный вопрос.
Если разрешат таким бессмертным наследовать состояние своего биологического оригинала, то многие бессмертные будут богаче многих смертных.
Конечно же на сегодня это очень преждевременно говорить про симуляцию сознания человека к 30 году. Но если произойдёт революция в вычислениях, а я думаю что это возможно, тогда вполне. Или сумеют создавать специализированные нейронные процессоры, которые будет на транзисторах симулировать реальные нейроны. Так что будем наблюдать за дальнейшими успехами.
Реальное фото и видео.
Промышленная революция не убила ручной труд окончательно. Зато создала миллиарды белых воротничков. Так что тут будет примерно так же. Но это не точно...
Да нельзя будет не заметить интеллект!!!
ЭТО БУДЕТ ОЧЕВИДНО ВСЕМ!
Без всяких исследований!
Это как иногда статьи пишут, вроде наукообразно, а написан бред, так и рассуждения, они есть но на уровне ребёнка. Да выше чем у любой обезьяны и т.д. Знаний в миллионы раз больше чем у любого человека, а пользоваться для создания новых знаний не умеет. Это же очевидно.
Интеллект создаёт новые знания.
Оценивать надо умение решать нестандартные задачи нестандартными способами.
Вы это наблюдали? Где?
Мы по разному оцениваем одну и ту же информацию. Вы считаете раз модели пишут рассуждения значит их рассуждения построены на логике и понимании. Я же считают что сейчас они только эмитируют рассуждения на основе предсказаний следующего слова.
Настоящего понимая и рассуждения я там не вижу, попытки есть.
При их объёме знаний и при наличии полноценных рассуждений, этого было бы трудно не заметить. Пока не вижу.
Умения решать нестандартные задачи нестандартными способами не наблюдаю.
Не впечатляют меня их рассуждения. Объем знаний впечатляет, рассуждения нет.
Если быть ещё более дотошным, то число атомов Вселенной никто не знает даже примерно, он может быть даже бесконечным. А вы пишите про число атомов наблюдаемой Вселенной.
Они видели миллиарды строк кода в отличии от меня, они видели решения миллионов задач. Он не новички в программировании, просто их как следует не учили мыслить.
Если их обучить мыслить они будут в сотни или тысячи раз умнее любого человека. Этого нельзя будет не заметить. Там просто не будет предмета спора. Как спорить сейчас кто лучше играет в шахматы. Мы просто признаем поражение. Этого ещё не произошло. Как скоро произойдёт я не знаю.
Пока не была механизма внимания глубокие нейронные сети вообще не могли текст обрабатывать. Они умели распознавать кошек, собак и так далее, умели видеть обученные предметы. Но генерировать связный текст не умели. Механизм внимания произвёл революцию в понимании текста нейронками.
Что то подобное нужно для рассуждений. Их этому учат, но на базе механизма внимания. Возможно чего то важного не хватает.
Как только они научатся реально рассуждать они станут умнее нас просто в тысячи раз.
В общем количество знаний зашитых внутри LLM моделей меня поражает. Но как они ими распоряжаются нет.
Они почерпнули почти все знания человечества, так набор знаний у них больше чем у меня в миллионы раз я уверен.
Я с ними общаюсь по несколько часов в день. Похоже вы успехи берете из заголовков статей. Да они отличные помощники. И текст пишут лучше меня и код быстро пишут и объем кода огромный, но они как дети в рассуждениях чуть шире их знаний.
Решают высшую математику они лучше меня в тысячу раз, я её забыл уже. И даже нашли решения которые люди пропустили, потому что не думали над ними. Людям эти проблемы были неинтересны. Более того математики сейчас как раз обучают модели думать математически. У них постепенно получается.
И открытия они делают в основном в биологии и химии, где огромный объем статистических данных. Там они монстры. люди не созданы для такого.
Все это мне известно.
Но вы пишите так, как будто они уже рассуждают на уровне человека, но это не так. При каждой новой для них задаче они буквально галюцинируют. По крайней мере на моих сложных задачах.
Да создать то что они сто раз видели это они умеют. Вы попробуйте им объяснить небанальные вещи, то что им не встречалось.
На данном этапе технология позволяет обучат LLM только на огромном объёме данных. Они пока не умеют обучаться достаточно быстро и на достаточно на малом объёме данных как это делает человек.
Чтобы система научилась понимать логику, её надо научить рассуждениям, понимать логику и понимать рассуждения. Тогда она начнет обучаться как человек на малом количестве примеров.
Их надо обучать рассуждениям, но у человечества мало такого корпуса знаний. Мы создавали результаты своего труда — факты, но не записывали шаги наших рассуждений почему мы это так решили.
Это есть в математике, и возможно физике. Математика это язык логики и рассуждений, но он очень краткий. Если математику расписать языком ребёнка, с внимательными рассуждениями, то мы сильно продвинем наши LLM модели в математике. Возможно первое где модели начнут полноценно рассуждать это точные науки типа математики, физики, химии и подобные наука. Там мы записывали свои рассуждения.
В общем надо создавать большой обучающий корпус логических рассуждений и обучить на нем модели думать через статистику.
Забавно что другое мнение, основанное на другой оценке тех же знаний вы считаете отсутствием логики. Покажите статью что кто то научил модель полноценно рассуждать.
Не сомневаюсь что LLM модели научат полноценно рассуждать, но этого пока нет по моим данным.
Методы обучения совершенствуются в невероятной скоростью. Но это не влияет на базовую архитектуру трансформера и глубоких нейронных сетей. Поэтому ваше замечание мало что не меняет.
Чему надо учить модели это логически рассуждать и видеть ошибки в логике. Пока я видел только научные статьи на эту тему, и не видел чтобы создатели нейронок хвастались что научили свою модель полноценным рассуждениям. Возможно у них нет большого обучающего корпуса для этого. Такой корпус обучающих данных сложнее создать.
К сожалению ещё нет даже примерной математической модели человеческого интеллекта. Поэтому я не знаю как можно оценить ограничения нашего интеллекта.
В скорости генерации LLM моделям мы точно проигрываем, в разумности пока нет.
Ученные изучающие наш интеллект изучили многое косвенно и многие ограничения даже оценили. И ограничения на самом деле достаточно серьёзные.
Например согласно исследованиям, шимпанзе и бонобо способны одновременно оперировать не более чем тремя объектами, что ограничивает их способность к сложному рекурсивному мышлению и изготовлению многосоставных орудий. Это является фундаментальным отличием от человека, чья рабочая память позволяет удерживать до 7 элементов. Ограничение связано с объёмом кратковременной памяти, а не физической силой.