Обновить
-17

Пользователь

2
Подписчики
Отправить сообщение

Просто и ты и мужик далеки от технологий. Ракеты с "компьютерным зрением" были ещё в 60е годы https://en.wikipedia.org/wiki/TERCOM и про это много где рассказывалось, мол, анализируют местность, корректируют, могут летать без спутников, будущее.

Конечно же ничего сложного для квадрокоптера использовать технологии 60х годов прошлого века нет.

И как это относится к GPT? Не понимаю. Где связь?

У человека всё равно есть сознание, даже при этом синдроме. Во время этого сознания всё равно происходят какие-то изменения, не важно в оперативной памяти или какой-то другой, потому что происходит процесс мышления, процесс, а процесс это изменение состояния.

В каком месте и как происходит этот процесс у GPT, если она меняться не может в принципе? Где-то в каких-то других местах? Так причем тут тогда нейросети, если нейросеть за сознание не отвечает?

Какое ещё свойство? Что это за шиза? Где этот бред вы все берете?

Сознание это процесс, как и многое в этом мире. Как и любой другой процесс, сознание этот процесс изменяет состояние чего-либо во времени, по определению процесса.

В чем хранится сознание в нейросети, если GPT хранить состояние не может? В MySQL? В какой колонке, в ЯМыслящийРобот99? По какой функции это всё работает вообще?

Да, это всё меняет. Если не меняется сама нейросеть, то все изменения состояния находятся в функции rand(). Остается только функция rand() и MySQL.

С чего ты взял что функция rand() обладает сознанием? Каким образом rand() и MySQL хранит сознание? Если это не функция rand(), то наверное эти гениальные люди какую-то другую функцию сознания сделали? Типо там, iq() или intelligence(), да? Покажешь мне её? Или ты её влажно нафантазировал?

Или это я опять говорю с нейронкой? Харош, дайте мне с людьми пообщаться, не прикольно совсем, аргументы так себе.

Во-первых, ответы не меняются, ты вообще понимаешь что такое программирование и архитектура программ? Советую изучить, прежде чем фантазировать и нести этот откровенный бред. Архитектура GPT поддерживает только детерминированное продолжение ввода, если это меняется - значит кроме трансформатора там какая-то чушь вставлена, которая к самой нейросети отношения не имеет вообще.

Во-вторых, ты этот аргумент в нейросетке сгенерировал или что? Ты этим пытаешься оспорить архитектуру GPT? Не пойму, я сейчас с нейросетью разговариваю или ты серьезно эту чушь спорол? Не первый раз уже вижу этот аргумент "а вот у людей" который совершенно не к месту употребляется.

Речь про разум и мышление. Разум и мышление это какое-либо изменение состояния. Но GPT не меняется, она не может меняться архитектурно, ну архитектура такая, ну нет там никакого изменения.

Не понимаю, неужели это такие сложные вещи для понимания?

Ну и шиза. И в коментах шиза. Неужели этот бред всерьез кто-то пишет? К ИИ близки, AGI, чего, что, 1 апреля уже прошло, хватит.

Простейшая проверка на интеллект или разум - изменение ответов на вопросы в зависимости от внутреннего процесса мышления. И как там, меняется что-то? Ой, это же архитектурно не предусмотрено. Как неудобно вышло.

За такую борьбу вообще-то полагается наказание вплоть до уголовного, если свою борьбу будешь через интернет распространять. Добро пожаловать.

На самом деле это не баг, а фича. Всё это изначально именно так и задумывалось.

Что же до многочисленных пользователей. Разве мы не сменили общественные репозитории на приватные? Какие ещё многочисленные пользователи? Форму лицензии попутали.

Вот бы лицензию сменить, получше, поновее, чтобы математически доказанная эффективность. Эх, мечты.

Эээ, что за дела, я не готов ещё! Остановитесь, дураки, в какое будущее вы меня везёте!

Он пытается расположить к себе, втереться в доверие, мол, смотрите, я тоже программист, я как вы. Управляет эмоциями короче. Типичный психопат.

Так полагаю ты и есть один из тех тупых людей, которые интеллектом называют всё что угодно, не разбираясь в теме.

Зачем научное знание, зачем какие-то определения? Можно просто сказать что нейросеть это интеллект потому что люди тупые.

Прекрасно. Гениально. Достойно уровня ЧатГПТ 4.

Речь о том что у животных есть какие-то субъективные предпочтения в действиях, основанные на субъективном опыте. Это не объяснимо простым разбросом параметров или какой-то разностью реакций. Простую разность реакций можно контролировать, а то что существует личность которая учится и меняет поведение в зависимости от каких-то условий и внутренних последствий и переживаний - просто так контролировать уже не получится, это не входит в разность или разброс реакций.
Это как пытаться ставить эксперимент на людях. Каждый раз, даже с условием того что среда была одинаковой, результаты поведения меняются. Они не зависят от среды, разброса параметров или чего либо ещё. Это зависит от личностных характеристик и какого-то внутреннего процесса который мы не можем наблюдать.

Это как раз и "ставит в тупик". Как проводить эксперимент на личностях? Как понять что мы правильно поняли личность? Существуют ли объективные параметры которые могут отделить одну личность от другой? Это серьезная проблема. Конечно тупика никакого нет, есть лишь просто новые ограничения для экспериментов, но всё же.

Из статьи так и не понял чему она научилась.

Она научилась логику решать или нет? Разбирать текст на общности? Применять логические действия?

Какие-то пруфы того что она может в программирование будут или пруфы в век нейросетей уже не нужны?

ChatGPT: Ой, извините, я ошиблась. Проверка действительно есть.

Типа написать требования на простой модуль

Требования всегда конкретные, примеры любой документации всегда можно найти в интернете даже быстрее и лучше чем нейросеть, ведь она всегда может наврать.

создать тикет в джире

Она не может писать тикеты в джире. А у джиры есть документация официальная, если что-то непонятно - всегда можно зайти туда и уточнить. И там вранья уж точно не будет, в отличии от нейросети. Ну или будет его в тысячи раз меньше.

делать описание позиции для нового работника

Опять же это можно найти в интернете. И там вероятнее всего не будет ошибок, ещё и будет куча полезной информации.

Она вам это сделает, 

С ошибками, неточностями и вообще проверить это никак нельзя.

то эта система позволит вам улучшить производительность на простых, рутинных операциях которые вам требуется время от времени делать. 

Но какие это задачи? Абсолютно все перечисленные задачи поисковик делает лучше.

Нет, это не работает. Проблема всех таких моделей - они не могут поддерживать формальную логику. Без формальной логики, без операторов формальной логики невозможно даже рисунок нарисовать, не говоря про программирование. Она может написать, а может и не написать. И невозможно узнать что из этого истина, ибо истинности нет вообще.

Пока нейросеть не сможет работать с формальной логикой - современные языковые модели и модели нейроарта останутся навечно на таком уровне, без возможности улучшить свой уровень, чего в ближайшее время не предвидится вообще. Ближайшее время это наитупейший хайп на каком-то дичайшем говнище, на которое без фейспала страшно смотреть - люди по 20 часов вводят текст чтобы получить приемлемую картинку или ответ на вопрос. А ведь нейросеть даже не использует этот ввод для обучения.

Стыдно должно быть называть это чем-то рабочим или чем-то что имеет потенциал. Потенциал срубить бабла - имеет. Но не более.

А какой КПД у свободнопоршневого газогенератора с турбиной?

Интеграция умных и свободномыслящих людей с правящими элитами и постепенное выведение стран к более свободным формам общества. Думаете невозможно? 

Думаю что эти свободномыслящие люди быстро станут не такими свободномыслящами, когда вопрос будет стоят об выселении их из особняка, потому что срок полномочий окончен.

Как думаете, можно ли применить интеллект к тому, чтобы зная скрытые законы развития общества, аккуратно варить лягушку в обратном направлении?

Думаю стоит интеллект применять к прямой демократии, материализму и научному методу, а не ставить очередную лягушку, в этот раз точно свободную, на пьедестал общества и поклоняться ей.

Проблема этой нейросети не в том что она даёт неправильные ответы, а в том что в принципе у ответов нет никакого критерия правильности или достоверности.

Все правильные ответы просто случайны, они вероятностны, они верны просто потому что при обучении был подобный стиль, просто на стаке сеть спарсила похожий ответ c подобной конструкцией. Не более того.

О каком "понимании" вообще идёт речь? Нейросеть не понимает, её не создавали с такой функцией, у неё нету ничего чтобы понимать. Нет даже критерия что такое "понимание" в контексте нейросетей. Распределение вероятностей всего ответа или части, слова или куска утверждения?

СhatGPT это языковая модель. Это не модель которая даёт правильные ответы. Это не модель которая проверяет достоверность ответа. Это не модель формальной логики. Это языковая модель. Она предсказывает правильное построение предложений. Не более того.

Все больше кажется что про нейросети пишут люди которые к программированию вообще никакого отношения не имеют. Никто не описывают архитектуру нейросети, не описывают архитектуру обучающих тестов, с какой вероятностью ответ будет правильным. Просто какой-то рекламный наброс "умная модель понимает и правильно отвечает, а вы всё врёти".

Правильно, господин Кичрот, все эта вера в свободу на самом деле ловушка, на самом деле свобода это порабощение, это самое, что ни на есть, рабство! Да, рабство, господин Кичрот, давайте будем называть вещи своими именами. Свобода это рабство!

И вообще нужно эти плохие слова, свобода, равенство и братство, запретить. Чего это, доверчивых людей в ловушку ловят, рассказывая про какую-то свободу-то.

Ктож в наше время не знает что свобода это рабство? Только доверчивый человек поверит что свобода и равенство существует. Свобода и равенство это массовое порабощение!

И книжки все нужно сжечь.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность