Для людей понятно, пройти все тесты это очень надолго. А вот могли бы для домашних животных и выпустить. Я бы коту своему прикупил. Под свой страх и риск так сказать. Заодно и статистику соберут немалую...
она (жизнь) изначально возникла именно на биологических, остальное- фантазии
если формально - то досконально мы о возникновении биологической жизни тоже не все знаем. Так что известная доля допущений есть в обоих случаях. И можно спорить где ее больше.
нет
Конструктивно.
кто вообще сказал, что жизнь- это разум
поиск следствий терраформирования планет - это по сути поиск свидетельств разума, а не жизни.
наш пример не говорит о таком
С нашими +/- текущими технологиями, вопрос терраформирования даже одной планеты - это вопрос сотен если не тысяч лет. А вопрос создания аналога человеческого разума (по оценке множества экспертов, которые реально добились многого на этом пути) - это годы, максимум десятилетия. Но вам, конечно, виднее.
Думаю посыл был в том, что развитая, разумная жизнь может быть построена на множестве совсем других принципов. Не биологических. Мы, например, относительно близки к построению "жизни" (как носитель разума) на основе электроники.
Т.е. на предполагаемой линии развития разумного вида, и обозначить события "мы можем терраформировать планеты" и "мы можем изменить принцип организации себя как носителя разума на что-то более удобное" - то совсем не факт, что первое наступит раньше второго. Более того, наш собственный пример говорит, что второе наступит очень сильно раньше...
Сверхновая, наблюдавшаяся в 2015 году (ASASSN-15h), имела пиковую светимость около 2 x 10:38 ватт. Это больше, чем у 500 миллиардов Солнц.
Соответственно и посчитал, что было бы если бы звезда в 500 млрд раз ярче солнца оказалась на расстоянии 500 световых лет.
Так что к моему расчету ваше замечание не относится. А вот можно ли верить цитате или можно ли сравнивать ASASSN-15h с Бетельгейзе - это другой вопрос...
про смену парадигмы я ничего не писал, только про резкое увеличение объема необходимых данных. А в случае LLM, это, как показывает практика, вероятно даст скачек качества. И так далее по кругу пока задача "напиши фотошоп" - не будет решаться за вечер... И далее.
"искреннее любопытство" - это не какая-то волшебная пилюля. Как и эволюция. Никто не говорит, что LLM - равен мозгу. Это просто один из краеугольных камней построения сознания. Инструмент который позволяет работать не с числами и строками, а с образами и смыслами. И это открывает перспективы...
Я нигде не писал, что LLM должна учиться по ходу решения задачи.
Смысл в том, что LLM пишет код опираясь на ожидаемый результат (это уже умеет делать тот же Claude 3.5 Sonnet, так что ничего нового тут нет). И результаты используются для дообучения.
Например, мы показываем скриншот и описание блокнота, а LLM пытается его воссоздать. Дальше идет тест, сравнение оригинала и нового приложения. Это тоже отчасти уже делают, но хорошо бы пойти чуть дальше, чтобы сравнивать в динамике (что будет если нажать кнопку и пр). Это и есть "пол шага" про которые я написал.
Во всем этом пока никакого обучения нет.
Но на выходе мы имеем новый код, и оценку его качества (соответствия задаче). Отбрасываем плохой код, а оставшийся используем для дообучения модели (LoRa или полноценное обучение, не суть).
Так что ничего принципиально нового тут нет. Наверняка что-то подобное уже используется, многие говорят что используют для обучения сгенерированные данные. Ведь качественных и открытых данных для обучения не так много, а такой подход может решить проблему.
Просто осталось чуть-чуть, чтобы научить сетку пользоваться готовым софтом (ради чего по сути и нужен Windows Recall). Это позволит замкнуть петлю обратной связи и позволит создать огромные объемы обучающих данных, что, в свою очередь, резко повысит качество кодинга LLM.
Сейчас сетки обучаются на существующем коде который далеко не всегда хорош. По сути, сеть учат не решать задачу, а выдавать код максимально похожий на то, что по этому поводу можно найти в интернете. Отсюда и много ошибок. Все равно, что человек бы не пытался в голове "исполнить" код, а просто писал по аналогии с тем что видел.
Огромный скачок в нейросетях играющих в шахматы произошел когда программы стали играть сами с собой. И нам осталось пол шага до того как мультимодальные сети это смогут. Уже сейчас топовые сетки могут проверить как работает написанный ими код, но это не поставлено в основу их обучения.
Предполагаю если после начального обучения, дать сети доступ к множеству готовых программ (не исходников, а самих приложений) с задачей все их переписать с нуля, от простых к сложным. Программа пишет, запускает, сравнивает с оригиналом, опять пишет... Успешные результаты используются для дальнейшего обучения...
Разница в том, что аудиофильтр имеет ту же информацию (в точностью квантования), что и имел бы эмулируемый комбик (график изменения давления воздуха в заданной точке пространства). Поэтому можно добиться программной эмуляции сколь угодно высокой точности.
А при фотографировании разными объективами получаемые с матрицы исходные данные - сильно различаются. По изображению снятому с малой диафрагмой нельзя достоверно воссоздать изображение снятое с большой диафрагмой (и наоборот). А так как у телефона диафрагма маленькая в силу размеров самого оптического модуля - то задача аналитически неразрешима.
Можно представить аналогию, что в звуке нам нужно из моно сделать стерео. Фильтры для этого есть, но работают они фигово. Так как если информации в исходнике нет, то и взять ее неоткуда.
Для правильной реконструкции фото нужна полная информация о световом потоке, а значит нужна съемка на камеру светового поля. Но они пока сильно проигрывают по другим параметрам.
Поэтому все подобные фильтры и сервисы опираются на нейросети чтобы "придумать" недостающие данные. И конечно для обучения используются и снимки сетки, и много чего еще. От качества реализации и будет зависеть степень соответствия.
Если вы хотите увидеть виртуального персонажа стоящего на реальном столе - оба изображения (стола и персонажа) - должны попадая в глаз иметь одну фокусировку (как в настройках фокуса и диафрагмы на фотоаппарате). Если фокусировка будет разная - то увидеть ее будет можно, но глазу (и мозгу) будет некомфортно.
Обычные AR очки, например, Microsoft HoloLens - выводят виртуальные элементы с только одним фокусом (и малой апертурой), так что изображение как бы везде четкое, но при этом глаз видит, что с ним что-то не то. Поэтому там все в основном состоит ярких линий, без попыток реально вписать виртуальные объекты в реальный мир.
Magic Leap на старте обещали это победить используя сложную систему с, кажется 5-ю, или даже 7-ю разными уровнями фокусировки, которые накладываясь должны были дать картинку, которую можно попробовать совместить с реальностью (правда забывая, что проблема вывода темных оттенков все равно не решена). К релизу все ограничилось 2-мя (если правильно помню) уровнями, так что революции не случилось.
В данном случае обещают голограмму которая вроде должна принципиально вопрос закрыть. Но опять же молчат про тени.
Дело в том, что любая картинка добавляет к существующему световому потоку что-то еще. И это выглядит как слой в фотошопе в режиме "Add" - т.е. сложения цветов. Вывести темный объект поверх светлого - нельзя. И на этом палится куча рекламы AR, в которой радостно накладывают модельки на видео, забывая, что в очках все будет совсем не так. И с новой технологией все точно также, решения тут нет.
Проблема в том, что проходя через плоскость линз лучи от темного участка были расфокусированы, они соберутся вместе только на сетчатке. Поэтому нельзя просто "перекрыть" эти "неудобные" пиксели. Нужно вытащить всю информацию из светового поля, отредактировать и собрать обратно. На сегодня это потенциально могут сделать только экспериментальные волновые дисплеи с размером пикселя сравнимым с длиной волны света. Но пока они крайне небольшие и монохромные (насколько я знаю, если ошибаюсь буду рад если подскажите).
Вот когда такие дисплеи научатся делать приличных размеров, совмещая с матрицей светового поля и вычислителем. Тогда и придет эра AR. Но imho, проще подключиться к сетчатке или зрительному нерву и править информацию уже в нем.
Для людей понятно, пройти все тесты это очень надолго. А вот могли бы для домашних животных и выпустить. Я бы коту своему прикупил. Под свой страх и риск так сказать.
Заодно и статистику соберут немалую...
Судя по тексту статьи, на аппарат просто отправили команду "домой", а он ответил своими координатами. Т.е. об оперативности доставки данных речи нет.
Не удивлюсь если все осталось почти как было, а местоположение получили уже после возврата беспилотника на базу.
В разделе "Что это за ОС" - прямо написано, что это две разные системы. По крайней мере я это так прочитал :)
Хотя, конечно, автор мог и исправить текст после публикации.
Очевидно что
В данной парадигме 2 ▇ + ▲ = 11
И других подходящих вариантов в ответах нет.
Возможно, есть другая парадигма с той же уникальностью.
Обоснование?
Этот?
Вот кстати, кто-нибудь в курсе, бывают такие кольца с уведомлениями (можно без всех прочих функций)? Я как раз из тех, кто не может часы носить...
Я где-то говорил о доказательствах? Мы в комментариях к статье о поиске, на что я и ссылаюсь. И только.
Опять же, вам, конечно, виднее.
Термин "экспертные системы" - однозначен и определяет структуру алгоритма работы ИС. Нейросети устроены принципиально иначе, не стоит их путать.
А ваш разум оперирует чем-то помимо информации полученной в ходе жизни?
Понятно. Полагаю тут не хватает только таблички "Вы находитесь здесь", но эта тема себя уже подисчерпала.
Думаю разница в комплексе мировоззрений слишком велика чтобы прийти к взаимопониманию. Всего хорошего!
если формально - то досконально мы о возникновении биологической жизни тоже не все знаем. Так что известная доля допущений есть в обоих случаях. И можно спорить где ее больше.
Конструктивно.
поиск следствий терраформирования планет - это по сути поиск свидетельств разума, а не жизни.
С нашими +/- текущими технологиями, вопрос терраформирования даже одной планеты - это вопрос сотен если не тысяч лет. А вопрос создания аналога человеческого разума (по оценке множества экспертов, которые реально добились многого на этом пути) - это годы, максимум десятилетия. Но вам, конечно, виднее.
Думаю посыл был в том, что развитая, разумная жизнь может быть построена на множестве совсем других принципов. Не биологических. Мы, например, относительно близки к построению "жизни" (как носитель разума) на основе электроники.
Т.е. на предполагаемой линии развития разумного вида, и обозначить события "мы можем терраформировать планеты" и "мы можем изменить принцип организации себя как носителя разума на что-то более удобное" - то совсем не факт, что первое наступит раньше второго. Более того, наш собственный пример говорит, что второе наступит очень сильно раньше...
Imho, с тем же успехом можно искать во вселенной планеты состоящие из лошадиного помета, как логичное продолжение кризиса 1894 года. /s
Я отталкивался от фразы в статье
Соответственно и посчитал, что было бы если бы звезда в 500 млрд раз ярче солнца оказалась на расстоянии 500 световых лет.
Так что к моему расчету ваше замечание не относится. А вот можно ли верить цитате или можно ли сравнивать ASASSN-15h с Бетельгейзе - это другой вопрос...
Можно посчитать попроще, если вспомнить формулу для пересчета видимой звездной величины с расстоянием (в парсеках)
Это позволит определить что если бы наше Солнце было от на месте Бетельгейзе, оно бы имело звездную величину порядка +10.7
Увеличим светимость в 500 млрд. раз, для чего вычтем 2.5 * log(500000000000)
И получим те же -18.4 :)
про смену парадигмы я ничего не писал, только про резкое увеличение объема необходимых данных. А в случае LLM, это, как показывает практика, вероятно даст скачек качества. И так далее по кругу пока задача "напиши фотошоп" - не будет решаться за вечер... И далее.
"искреннее любопытство" - это не какая-то волшебная пилюля. Как и эволюция. Никто не говорит, что LLM - равен мозгу. Это просто один из краеугольных камней построения сознания. Инструмент который позволяет работать не с числами и строками, а с образами и смыслами. И это открывает перспективы...
Я нигде не писал, что LLM должна учиться по ходу решения задачи.
Смысл в том, что LLM пишет код опираясь на ожидаемый результат (это уже умеет делать тот же Claude 3.5 Sonnet, так что ничего нового тут нет). И результаты используются для дообучения.
Например, мы показываем скриншот и описание блокнота, а LLM пытается его воссоздать. Дальше идет тест, сравнение оригинала и нового приложения. Это тоже отчасти уже делают, но хорошо бы пойти чуть дальше, чтобы сравнивать в динамике (что будет если нажать кнопку и пр). Это и есть "пол шага" про которые я написал.
Во всем этом пока никакого обучения нет.
Но на выходе мы имеем новый код, и оценку его качества (соответствия задаче). Отбрасываем плохой код, а оставшийся используем для дообучения модели (LoRa или полноценное обучение, не суть).
Так что ничего принципиально нового тут нет. Наверняка что-то подобное уже используется, многие говорят что используют для обучения сгенерированные данные. Ведь качественных и открытых данных для обучения не так много, а такой подход может решить проблему.
Просто осталось чуть-чуть, чтобы научить сетку пользоваться готовым софтом (ради чего по сути и нужен Windows Recall). Это позволит замкнуть петлю обратной связи и позволит создать огромные объемы обучающих данных, что, в свою очередь, резко повысит качество кодинга LLM.
Сейчас сетки обучаются на существующем коде который далеко не всегда хорош. По сути, сеть учат не решать задачу, а выдавать код максимально похожий на то, что по этому поводу можно найти в интернете. Отсюда и много ошибок. Все равно, что человек бы не пытался в голове "исполнить" код, а просто писал по аналогии с тем что видел.
Огромный скачок в нейросетях играющих в шахматы произошел когда программы стали играть сами с собой. И нам осталось пол шага до того как мультимодальные сети это смогут. Уже сейчас топовые сетки могут проверить как работает написанный ими код, но это не поставлено в основу их обучения.
Предполагаю если после начального обучения, дать сети доступ к множеству готовых программ (не исходников, а самих приложений) с задачей все их переписать с нуля, от простых к сложным. Программа пишет, запускает, сравнивает с оригиналом, опять пишет... Успешные результаты используются для дальнейшего обучения...
Вот тогда будет интересно:)
За 21 день
Разница в том, что аудиофильтр имеет ту же информацию (в точностью квантования), что и имел бы эмулируемый комбик (график изменения давления воздуха в заданной точке пространства). Поэтому можно добиться программной эмуляции сколь угодно высокой точности.
А при фотографировании разными объективами получаемые с матрицы исходные данные - сильно различаются. По изображению снятому с малой диафрагмой нельзя достоверно воссоздать изображение снятое с большой диафрагмой (и наоборот). А так как у телефона диафрагма маленькая в силу размеров самого оптического модуля - то задача аналитически неразрешима.
Можно представить аналогию, что в звуке нам нужно из моно сделать стерео. Фильтры для этого есть, но работают они фигово. Так как если информации в исходнике нет, то и взять ее неоткуда.
Для правильной реконструкции фото нужна полная информация о световом потоке, а значит нужна съемка на камеру светового поля. Но они пока сильно проигрывают по другим параметрам.
Поэтому все подобные фильтры и сервисы опираются на нейросети чтобы "придумать" недостающие данные. И конечно для обучения используются и снимки сетки, и много чего еще. От качества реализации и будет зависеть степень соответствия.
если так - то проблема точно будет решена, но за что машину?
Совершенно верно. Немного дополню.
Если вы хотите увидеть виртуального персонажа стоящего на реальном столе - оба изображения (стола и персонажа) - должны попадая в глаз иметь одну фокусировку (как в настройках фокуса и диафрагмы на фотоаппарате). Если фокусировка будет разная - то увидеть ее будет можно, но глазу (и мозгу) будет некомфортно.
Обычные AR очки, например, Microsoft HoloLens - выводят виртуальные элементы с только одним фокусом (и малой апертурой), так что изображение как бы везде четкое, но при этом глаз видит, что с ним что-то не то. Поэтому там все в основном состоит ярких линий, без попыток реально вписать виртуальные объекты в реальный мир.
Magic Leap на старте обещали это победить используя сложную систему с, кажется 5-ю, или даже 7-ю разными уровнями фокусировки, которые накладываясь должны были дать картинку, которую можно попробовать совместить с реальностью (правда забывая, что проблема вывода темных оттенков все равно не решена). К релизу все ограничилось 2-мя (если правильно помню) уровнями, так что революции не случилось.
В данном случае обещают голограмму которая вроде должна принципиально вопрос закрыть. Но опять же молчат про тени.
Дело в том, что любая картинка добавляет к существующему световому потоку что-то еще. И это выглядит как слой в фотошопе в режиме "Add" - т.е. сложения цветов. Вывести темный объект поверх светлого - нельзя. И на этом палится куча рекламы AR, в которой радостно накладывают модельки на видео, забывая, что в очках все будет совсем не так. И с новой технологией все точно также, решения тут нет.
Проблема в том, что проходя через плоскость линз лучи от темного участка были расфокусированы, они соберутся вместе только на сетчатке. Поэтому нельзя просто "перекрыть" эти "неудобные" пиксели. Нужно вытащить всю информацию из светового поля, отредактировать и собрать обратно. На сегодня это потенциально могут сделать только экспериментальные волновые дисплеи с размером пикселя сравнимым с длиной волны света. Но пока они крайне небольшие и монохромные (насколько я знаю, если ошибаюсь буду рад если подскажите).
Вот когда такие дисплеи научатся делать приличных размеров, совмещая с матрицей светового поля и вычислителем. Тогда и придет эра AR. Но imho, проще подключиться к сетчатке или зрительному нерву и править информацию уже в нем.