А то что они всем инженерным и директорским составом не смогли додуматься до того что для ракет такой мощности нужен нормальный стартовый стол, не настораживает?
Что значит зачем? Чтобы испытания были успешными. Она могла взорваться и прямо на стартовом столе, просто крупно повезло что такого не случилось и огромнейшие куски бетона летающие по стартовой площадке попали только в шесть двигателей, а не все пятнадцать.
Ничего не оправдывает что ракета могла взорваться на стартовой площадке из-за того что бетона пожалели. Впрочем, фейлы случаются. Бывает.
Смешно конечно вышло, надеюсь после такого спейскс на бетоне экономить не будет.
Так троцкисты и маоисты и сейчас никуда не делись. Если сейчас существуют такие ультралевые, то какой смысл называть либеральных зелёных ультралевыми? Это же не логично просто.
Или то что они не в топе, значит что их нет? Но это же нет отрицает их существование. Они же не перестают существовать. Левые анархисты не перестают существовать, и они уж точно левее зелёных. Т.е. по всем признакам зелёные это просто эко-либералы, даже не левые.
Выглядит это всё как какой-то туповатый приём пропаганды, который предназначен для идиотов у которых логики нет. Жаль конечно что такой тупой приём работает даже на инженерах.
Ну вообще-то это не ультралевые. Ультралевые ядерные реакторы строили, как и ядерную промышленность. Ещё и хотели реки повернуть, чтобы климат Сибири изменить. Природа должна подчиняться человеку, а не наоборот. Это всё левое.
Они же обычные правые либеральные фанатики, борятся за свободу, в этот раз за свободу от ядерной энергии. И есть вопросы к тому кем они созданы и от кого донаты принимают.
Плотность черных дыр не совсем верное понятие, ведь это сингулярность, разве у пространственно-временной сингулярности может быть плотность? В месте где не существует понятия времени и пространства не может существовать понятие плотности, ибо плотность это мера связанная с пространством. Существует ли внутри хоть что-то обладающее плотностью и в какой метрике оно находится - науки сие неизвестно.
Обучение биологических нейросетей так же основано на имитации.
Какая ещё имитация? Откуда ты это взял?
Дети многое из того что видят просто повторяют, причём многократно и не понимая смысла деятельности.
И что это должно доказывать? Это какой-то аргумент? Дальше-то что? Причем тут нейросети и дети?
GPT не имитирует, она просто ищет паттерны, она ничего не повторяет многократно, она достраивает ввод за пользователем согласно паттернам найденным в датасете. GPT архитектурно не приспособлена имитировать или повторять.
P: Set yourself a goal, make a plan how to ach 2.Create a study schedule and set a study goal for each day or week.
Что это за бред? Мы говорим про постановку задачи нейросетью для нейросети, а не "составить расписание на неделю", к чему ты это вообще запромтил, что за чушь?
Кстати отличный пример что нейросеть не может выполнить подобный запрос, нейросеть просто создала текст который встречается в её датасете ближе всего к токенам которые содержат "составить расписание". Нейросеть не может понять что она должна именно для себя составить цель и задачу, потому что она не может понимать в принципе, по архитектуре.
Системы автоматического доказательства теорем работают в ограниченной логической системе, с ограниченным набором переменных и только в рамках конкретных теорий. Они не могут порождать новые системы аксиом, не могут работать с неизвестностями и неоднозначностями. Ну и тут стоит вспомнить теорему о неполноте и NP задачи.
GPT не может ставить себе задачу потому что постановка задачи это работа с полной неизвестностью. Неизвестностью недоказуемой и формально не определимой и по этому это не возможно и в рамках систем ATP.
GPT никогда не сможет поставить себе задачу, по архитектуре GPT так не работает, у него есть набор данных и паттерны которые встречаются в данных. Никакой работы с неизвестностями быть тут не может вообще, GPT не может найти или создать неизвестный и неопределимый паттерн в семантике, он же неизвестный и неопределимый.
В теории конечно же нейросети могут работать с неизвестностями используя какой-то набор знаний и парадигм, некоторые нейросети отлично с этим справляются. Проблема тут в том что существующие нейросети уровня GPT это говно, а токены это даже не слова. Прогресс в никуда, инвестиции туда же.
скорее всего мы будем до последнего объяснять себе о том, что это не то, чем кажется и это все не AGI
Так это и не аги, это просто модель для вывода текста.
наши когнитивные искажения и мы выдаем желаемое, за действительное
Когнитивные искажения тут в том что модель для вывода текста, простую языковую модель, некоторые люди представляют за ИИ или AGI.
Вроде бы везде написано что это просто языковая модель, но нет, включается когнитивное искажение и модель вывода текста становится ИИ. Что с людьми такое происходит.
Вся эта тренировка современная тренировка ИИ это полная чушь, ведь это же не ИИ, а просто какие-то нейросети, семантические, они на токенах основаны. Бессмысленно проецировать тренировку нейросетей на ИИ или на что-то приближенное к интеллекту. Но некоторые на этой чуши целые каналы построили и научные работы пишут. Просто ужас, до чего докатился мир.
ИИ тренировать для постановки задачи не нужно, в этом и смысл интеллекта - он создаёт новые, логически непротиворечивые, знания сам, без участия учителя. Интеллект может мыслить логически. Он может в ложь и истину.
Нейросети такого не могут, они не мыслят, они не понимают, именно по этому они не обучаются, в привычном понимании, они просто симулируют действия, находят паттерны, но они не понимают, просто не способны понять логические взаимосвязи, они для этого не предназначены. Весь бред про нейросети которые мыслят или находят логику - либо бред каких-то мечтающих идеалистов с нарушениями в логике, либо просто наглая маркетинговая ложь.
От ИИ мы далеки настолько что ещё пахать и пахать десятки лет придётся.
Для всего этого бреда, который написан в статье, можно придумать десятки контраргументов.
Для обычного человека контраргумент простой - просто нужно составить логическую задачу которая GPT не решит. Это просто, десятки примеров.
Для программиста программиста будет понимание архитектуры - GPT оперирует не логическими понятиями, а токенами. Токены не логика, а значит она не может в логику по своей архитектуре. Не способна бай дизайн.
Этот небольшой пример демонстрирует сразу множество вещей. Во‑первых, GPT-4 способна оперировать логическими понятиями
Не способна.
Как следствие предыдущего: GPT-4 умеет делатьлогическое обобщение.
Не умеет.
Это чудо уже само по себе
Почти все восторженные статьи на хабре про GPT оперируют исключительно магическими понятиями и не имею доказательств. Думаю это такая своеобразная форма помешательства, лёгкого бреда. Довольно жаль что такое распространено среди людей которые казалось бы сами могут напрограммировать нейросеть или хотя бы представить её архитектуру в общих чертах.
Думаю, в этом виновата философия идеализма, которая распространена в современном мире. Проверять и относиться скептически к своим суждениям не просто не принято, а считается кощунством. Печальный новый мир постправды в котором критика уничтожается по причине "неприятно".
Просто и ты и мужик далеки от технологий. Ракеты с "компьютерным зрением" были ещё в 60е годы https://en.wikipedia.org/wiki/TERCOM и про это много где рассказывалось, мол, анализируют местность, корректируют, могут летать без спутников, будущее.
Конечно же ничего сложного для квадрокоптера использовать технологии 60х годов прошлого века нет.
У человека всё равно есть сознание, даже при этом синдроме. Во время этого сознания всё равно происходят какие-то изменения, не важно в оперативной памяти или какой-то другой, потому что происходит процесс мышления, процесс, а процесс это изменение состояния.
В каком месте и как происходит этот процесс у GPT, если она меняться не может в принципе? Где-то в каких-то других местах? Так причем тут тогда нейросети, если нейросеть за сознание не отвечает?
Какое ещё свойство? Что это за шиза? Где этот бред вы все берете?
Сознание это процесс, как и многое в этом мире. Как и любой другой процесс, сознание этот процесс изменяет состояние чего-либо во времени, по определению процесса.
В чем хранится сознание в нейросети, если GPT хранить состояние не может? В MySQL? В какой колонке, в ЯМыслящийРобот99? По какой функции это всё работает вообще?
Да, это всё меняет. Если не меняется сама нейросеть, то все изменения состояния находятся в функции rand(). Остается только функция rand() и MySQL.
С чего ты взял что функция rand() обладает сознанием? Каким образом rand() и MySQL хранит сознание? Если это не функция rand(), то наверное эти гениальные люди какую-то другую функцию сознания сделали? Типо там, iq() или intelligence(), да? Покажешь мне её? Или ты её влажно нафантазировал?
Или это я опять говорю с нейронкой? Харош, дайте мне с людьми пообщаться, не прикольно совсем, аргументы так себе.
https://www.youtube.com/watch?v=FBpPjjhJGhk
Вот видео покороче для непонявших, рекомендую начать с него.
Зачем знак вопроса в конце?
Погоди, так ведь это американское исследование! Американцы проверяют чипы на трояны!
Это что же, американцы дураки что ли, не доверяют проектировщикам? Ты это хочешь сказать?
Ох уж эти недоверчивые американцы, доверять надо, а они не доверяють!
Не ИИ, а просто нейросети, ИИ пока ещё не создано, к сожалению.
А то что они всем инженерным и директорским составом не смогли додуматься до того что для ракет такой мощности нужен нормальный стартовый стол, не настораживает?
Что значит зачем? Чтобы испытания были успешными. Она могла взорваться и прямо на стартовом столе, просто крупно повезло что такого не случилось и огромнейшие куски бетона летающие по стартовой площадке попали только в шесть двигателей, а не все пятнадцать.
Ничего не оправдывает что ракета могла взорваться на стартовой площадке из-за того что бетона пожалели. Впрочем, фейлы случаются. Бывает.
Смешно конечно вышло, надеюсь после такого спейскс на бетоне экономить не будет.
Так троцкисты и маоисты и сейчас никуда не делись. Если сейчас существуют такие ультралевые, то какой смысл называть либеральных зелёных ультралевыми? Это же не логично просто.
Или то что они не в топе, значит что их нет? Но это же нет отрицает их существование. Они же не перестают существовать. Левые анархисты не перестают существовать, и они уж точно левее зелёных. Т.е. по всем признакам зелёные это просто эко-либералы, даже не левые.
Выглядит это всё как какой-то туповатый приём пропаганды, который предназначен для идиотов у которых логики нет. Жаль конечно что такой тупой приём работает даже на инженерах.
Ну вообще-то это не ультралевые. Ультралевые ядерные реакторы строили, как и ядерную промышленность. Ещё и хотели реки повернуть, чтобы климат Сибири изменить. Природа должна подчиняться человеку, а не наоборот. Это всё левое.
Они же обычные правые либеральные фанатики, борятся за свободу, в этот раз за свободу от ядерной энергии. И есть вопросы к тому кем они созданы и от кого донаты принимают.
Плотность черных дыр не совсем верное понятие, ведь это сингулярность, разве у пространственно-временной сингулярности может быть плотность? В месте где не существует понятия времени и пространства не может существовать понятие плотности, ибо плотность это мера связанная с пространством. Существует ли внутри хоть что-то обладающее плотностью и в какой метрике оно находится - науки сие неизвестно.
Какая ещё имитация? Откуда ты это взял?
И что это должно доказывать? Это какой-то аргумент? Дальше-то что? Причем тут нейросети и дети?
GPT не имитирует, она просто ищет паттерны, она ничего не повторяет многократно, она достраивает ввод за пользователем согласно паттернам найденным в датасете. GPT архитектурно не приспособлена имитировать или повторять.
Нет, не может, не может по архитектуре.
Что это за бред? Мы говорим про постановку задачи нейросетью для нейросети, а не "составить расписание на неделю", к чему ты это вообще запромтил, что за чушь?
Кстати отличный пример что нейросеть не может выполнить подобный запрос, нейросеть просто создала текст который встречается в её датасете ближе всего к токенам которые содержат "составить расписание". Нейросеть не может понять что она должна именно для себя составить цель и задачу, потому что она не может понимать в принципе, по архитектуре.
Системы автоматического доказательства теорем работают в ограниченной логической системе, с ограниченным набором переменных и только в рамках конкретных теорий. Они не могут порождать новые системы аксиом, не могут работать с неизвестностями и неоднозначностями. Ну и тут стоит вспомнить теорему о неполноте и NP задачи.
GPT не может ставить себе задачу потому что постановка задачи это работа с полной неизвестностью. Неизвестностью недоказуемой и формально не определимой и по этому это не возможно и в рамках систем ATP.
GPT никогда не сможет поставить себе задачу, по архитектуре GPT так не работает, у него есть набор данных и паттерны которые встречаются в данных. Никакой работы с неизвестностями быть тут не может вообще, GPT не может найти или создать неизвестный и неопределимый паттерн в семантике, он же неизвестный и неопределимый.
В теории конечно же нейросети могут работать с неизвестностями используя какой-то набор знаний и парадигм, некоторые нейросети отлично с этим справляются. Проблема тут в том что существующие нейросети уровня GPT это говно, а токены это даже не слова. Прогресс в никуда, инвестиции туда же.
Скоро будут игры на электроне. Всегда мечтал.
Так это и не аги, это просто модель для вывода текста.
Когнитивные искажения тут в том что модель для вывода текста, простую языковую модель, некоторые люди представляют за ИИ или AGI.
Вроде бы везде написано что это просто языковая модель, но нет, включается когнитивное искажение и модель вывода текста становится ИИ. Что с людьми такое происходит.
Вся эта тренировка современная тренировка ИИ это полная чушь, ведь это же не ИИ, а просто какие-то нейросети, семантические, они на токенах основаны. Бессмысленно проецировать тренировку нейросетей на ИИ или на что-то приближенное к интеллекту. Но некоторые на этой чуши целые каналы построили и научные работы пишут. Просто ужас, до чего докатился мир.
ИИ тренировать для постановки задачи не нужно, в этом и смысл интеллекта - он создаёт новые, логически непротиворечивые, знания сам, без участия учителя. Интеллект может мыслить логически. Он может в ложь и истину.
Нейросети такого не могут, они не мыслят, они не понимают, именно по этому они не обучаются, в привычном понимании, они просто симулируют действия, находят паттерны, но они не понимают, просто не способны понять логические взаимосвязи, они для этого не предназначены. Весь бред про нейросети которые мыслят или находят логику - либо бред каких-то мечтающих идеалистов с нарушениями в логике, либо просто наглая маркетинговая ложь.
От ИИ мы далеки настолько что ещё пахать и пахать десятки лет придётся.
Для всего этого бреда, который написан в статье, можно придумать десятки контраргументов.
Для обычного человека контраргумент простой - просто нужно составить логическую задачу которая GPT не решит. Это просто, десятки примеров.
Для программиста программиста будет понимание архитектуры - GPT оперирует не логическими понятиями, а токенами. Токены не логика, а значит она не может в логику по своей архитектуре. Не способна бай дизайн.
Не способна.
Не умеет.
Почти все восторженные статьи на хабре про GPT оперируют исключительно магическими понятиями и не имею доказательств. Думаю это такая своеобразная форма помешательства, лёгкого бреда. Довольно жаль что такое распространено среди людей которые казалось бы сами могут напрограммировать нейросеть или хотя бы представить её архитектуру в общих чертах.
Думаю, в этом виновата философия идеализма, которая распространена в современном мире. Проверять и относиться скептически к своим суждениям не просто не принято, а считается кощунством. Печальный новый мир постправды в котором критика уничтожается по причине "неприятно".
Просто и ты и мужик далеки от технологий. Ракеты с "компьютерным зрением" были ещё в 60е годы https://en.wikipedia.org/wiki/TERCOM и про это много где рассказывалось, мол, анализируют местность, корректируют, могут летать без спутников, будущее.
Конечно же ничего сложного для квадрокоптера использовать технологии 60х годов прошлого века нет.
И как это относится к GPT? Не понимаю. Где связь?
У человека всё равно есть сознание, даже при этом синдроме. Во время этого сознания всё равно происходят какие-то изменения, не важно в оперативной памяти или какой-то другой, потому что происходит процесс мышления, процесс, а процесс это изменение состояния.
В каком месте и как происходит этот процесс у GPT, если она меняться не может в принципе? Где-то в каких-то других местах? Так причем тут тогда нейросети, если нейросеть за сознание не отвечает?
Какое ещё свойство? Что это за шиза? Где этот бред вы все берете?
Сознание это процесс, как и многое в этом мире. Как и любой другой процесс, сознание этот процесс изменяет состояние чего-либо во времени, по определению процесса.
В чем хранится сознание в нейросети, если GPT хранить состояние не может? В MySQL? В какой колонке, в ЯМыслящийРобот99? По какой функции это всё работает вообще?
Да, это всё меняет. Если не меняется сама нейросеть, то все изменения состояния находятся в функции rand(). Остается только функция rand() и MySQL.
С чего ты взял что функция rand() обладает сознанием? Каким образом rand() и MySQL хранит сознание? Если это не функция rand(), то наверное эти гениальные люди какую-то другую функцию сознания сделали? Типо там, iq() или intelligence(), да? Покажешь мне её? Или ты её влажно нафантазировал?
Или это я опять говорю с нейронкой? Харош, дайте мне с людьми пообщаться, не прикольно совсем, аргументы так себе.