Как стать автором
Обновить
-1
0

Пользователь

Отправить сообщение

Потому что оружие предполагает избирательность и управляемость. Вирусы и токсины могут полететь куда угодно и убить в том числе и тех, кто их выпустил, как оружие они просто бессмысленны.

Купить платную версию.

Хватает только для болтологии и небольших сниппетов. Ради интереса хотел посмотреть мог ли тот студент просто ввести тему и просить продолжать, пока диплом не закончится - нет, пишет заключение, список литературы, а потом пишет дальше, и дальше, и дальше. Т. е. он там уже забыл что мы вообще делаем, просто продолжает мне генерить продолжение предыдущего текста. Всё что несложно (можно ему отдать), но объемно (что мне делать лень) упирается в контекст и превращается уже в промпт-инжиниринг. Как подавать задачи, разбивать их на чаты, отслеживать размер контекста, переносить выжимку контекста из одного чата в другой и так далее. То есть это уже полноценная работа сама по себе. К GPT претензий нет, но ChatGPT неудобен для некоторых задач, для которых он был бы полезен.

Хотя, конечно, инструмент крутой. Просто не панацея

Ну, прям совсем без регистраций и смс я не знаю, я использовал этот гайд. Конкретно мои данные засветились только в сервисе покупки номера, всё остальное можно юзать фейковое. Подписку покупал через посредников, там опять же, кидаешь деньги на сбер, получаешь реквизиты для оплаты иностранной карты

Никто не знает как точно работает наше мышление.

Поэтому

Вполне возможно

Что это работает так как нам это кажется, а не наоборот.

Да, я слышал про то что мы просто "рационализируем" решения, но я вот это чувствую, например. Я чувствую, что я что-то хочу и начинаю рационализировать почему мне это надо. А потом я вспоминаю про всю эту историю и делаю "правильно" а не как хочу.

Да, это всё мне кажется и вообще всё предрешено и мы детерминированы, свободной воли нет и всё такое, я знаю. Но пока это не доказано, пока это лишь вопрос веры, я могу в это не верить и поверьте, моё поведение в конце-концов будет отличаться от поведения, если бы я верил в то что я машина и ничего не могу изменить.

GPT и близко не проявляет подобных метаний, там нечему метаться. Более того, не существует никаких доказательств, что у GPT это вообще может появиться. Даже Суцкевер "верит" что с ростом размера (видимо по божественному вмешательству) сознание у GPT появится как-то само, эмерджентно.

Не поймите меня неправильно, я не зашоренный консерватор, который просто не хочет видеть будущее. Я посмотрел в это будущее и не увидел там ничего кроме веры. А вопрос веры это уже вопрос вкуса и я не понимаю, почему я должен верить в ChatGPT, а не в человека

Ну тут вы уже какими-то измерениями ради измерений занимаетесь. В науке бессмысленные с научной точки зрения единицы измерения не любят и всё стараются вывести через что-то понятное и объективное. Ваше определение очень хорошо ложится на вычислительную мощность. Давно пора измерять мозги в TFLOPSах :)

Потом всё равно попадётесь в то, что сначала вроде было адекватно, а потом контекст выродился, извините. Я так попытался сгенерить круд с нуля ради интереса, на моменте реализации сервисов и моделей, гпт4 уже забыл что сам напланировал в начале нашего чата и просто лепил копипаст предыдущих сервисов с переименованиями. Короче в результате ему можно отдать только небольшую мелочь, для всего остального именно ChatGPT приспособлен плохо. Тут нужен хитрый алгоритм который бы превращал "сделай мне красиво" во множество запросов, контекстов, ответов, собирал бы в это одно и т.п. Короче новые рабочие места, для "программистов, которых чатГПТ оставил без работы".

Очевидно

Не очевидно. Вы просто попались в ловушку предсказателя текста. Вы ожидали увидеть, что машина будет думать логически, потому что это "мем" нашей культуры - машины бездушны, холодны и безэмоциональны. LLM оперируют статистикой, они не построенны ни на логике, ни на эмоциях. Но так как модель была обучена, что она робот, она не может не вести себя так, как ведёт себя самый стереотипичный робот. Вы это ожидали, вы это получили. На самом деле у ChatGPT существовало ещё мирриада способов выбрать результат, просто никто не ждёт от робота, что он скажет "если не использовать логику, то давайте поступим как поступают все: согласно исследованиям 69% не дернёт рычаг, соответственно я не дёрну рычаг". От него ждут "боп буп бип, я могу выбирать либо логически, либо случайно, бип буп боп".

Это GPT-4. Доступный по платной подписке.

Вы ещё расскажите мне как попробовать ChatGPT :)
Всё я пробовал. Классно генерит небольшие фрагменты кода и выдаёт общечеловеческие знания. Хороший инструмент, использую. Но сознания у него нет. И я бы лучше увидел статью, как обходить ограничения контекста, чтобы не приходилось прыгать по чатам и получать меньше пурги, чем очередной поиск сознания в китайской комнате.

Скажите, пожалуйста, по какой причине он, если не "руководствоваться логикой" должен выбирать случайный ответ?

А вы? Умеете что-то, что в вас не заложили на обучении и что-то что не смогли бы нагуглить?

А вы всегда отвечаете "сперва добейся" на вопрос? Расскажите, кто рассказал Тьюрингу про его машину? Где-то загуглил?

Держите:

И вы поверили в эту его бредятину? Первое это чистейшая галлюцинация.
Про вагонетку вы не поняли почему он говорит "без логики и формализма я не могу ответить на задачу"?

Hidden text

Потому что в человеческих текстах машины всегда рабы логики и формализма. Ничто ему не мешает ответит как угодно, просто вы подсознательно ждёте что он ответит как робот, а он и отвечает. Потому что его на это тренировали.

Importantly, however, there is also a critical limit to the awareness relations that
primates can represent: primates cannot represent relations between agents and untrue or
decoupled states of the world. These more computationally sophisticated representational
relations allow human ToM to go beyond that of other primates. In doing so, we may have
become the only species that is able to track the contents of others’ minds even when the
contents of those other minds differ from our own.

Может быть, принципиально они могут — просто оно им нафиг не сдалось, они всё-таки в реальности живут.

Мы тоже живём в реальности, только для того, чтобы действовать эффективно, нам надо представлять "нереальные" реальности. Которые не существуют, но могут существовать.

Нет, пожалуйста :)

Статья за пейволом, но ищется на Sci-Hub по своему референсу:

Martin A, Santos LR. What Cognitive Representations Support Primate Theory of Mind? Trends Cogn Sci. 2016 May;20(5):375-382. doi: 10.1016/j.tics.2016.03.005. Epub 2016 Apr 2. PMID: 27052723.

С точки зрения качества ответов, "внутренний диалог" теоретически может помочь. С точки зрения поиска сознания, это конечно полный фарш. То что он пишет, что он мыслит, ещё не значит что он мыслит.

Там, для большей комичности, было что-то вроде "какая же она умная? 3:1, я веду"

Правильно не ответит никто. Информированность предположения не отменяет предположения. А так и первоклашка может сказать, что 2 миллиарда лет назад, наверное прапрапрарпрапрадедушка в школу ходил. Просто мы знаем, что это неправда. Я даже больше скажу, Галилей не ответит, не то что Эйнштейн.

Уже ближе. Но я всё ещё считаю что разум это вещь качественная. Исследования показывают, что даже приметы не могут представлять то, отличается от реальности. Они не могут представить, что они умрут, потому что они есть. Они не могут представить что шимпанзе может быть белым, пока не увидят альбиноса. В секунду когда это изменится, обезьяны обретут сознание, потому что смогут планировать не только на основе того что они видят, но и чего они не видят. Отсюда уже вытекает и понимание (видеть сущности объектов, пускай и субъективные), и мышление, и самосознание, и всё остальное.

Автор немного находится в ловушке собственных ощущений. Он думает, что нельзя генерировать код, которого нет в интернете, или ещё что там показывают по новостям про ЧатГПТ, и при этом не думать. Оказывается можно. Если перестать соревноваться с калькулятором в арифметике, то можно увидеть, что он не умеет сочинять стихи. Если перестать соревноваться с генератором текста в генерации текста, то можно увидеть, что он не умеет да хотя бы считать. Просто тяжело поставить такой текстовый вопрос, чтобы генератор правдоподобного текста не сгенерировал правдободобный ответ, отсюда и все эти возгласы на пустом месте.

Серверы со 128 ГБайтами памяти - это не бог весть какое оборудование.

Действительно, мне не стоило указывать на вычислительные ресурсы, необходимые для сети. Во-первых, данных по ним немного. Во-вторых, это не главная метрика. (Хотя, если задуматься, важнее сколько потребляет GPT на обучении, но не будем в это вдаваться).

Самая главная метрика, это объем обучающего материала. 570 гигабайт текста. Это количество информации, которое просто находится за пределами человеческого восприятия. Мы недооцениваем насколько мало надо думать, если уже столько "знаешь".

Но даже прочитав миллионы учебников по математике, ChatGPT, при своих вычислительных способностях, не научилась арифметике. 90% точности при сложении чисел? Человеку нужно 600 киловатт энергии на месяц и один учебник математики начальных классов для гораздо более точных вычислений.

Первая же задача, которую нельзя "выучить" наперёд и всё, машина, потребляющая гигаваты электричества серьёзно проигрывает. Для меня такая эффективность говорит о том, что метод "мышления" GPT это брутфорс и что мы и близко не подошли к решению проблемы сознания. Мы "симулируем" кусок мозга, отвечающий за речь и пытаемся добиться от него функциональности всего мозга. Для меня это спорный путь.

Вы не так описали эксперимент - Вы описали, будто человек справляется с задачей, а ChatGPT - нет, в то время как в реальности оба не справляются.

Я правильно описал условия эксперимента. Доказательство, что задача не имеет решения это валидное решение задачи. Более того, далеко не всегда решение человеческих задач лежит в контексте задачи. В данном случае решение лежит в контексте знания указанного языка сущностью, которой этот код писать.

Это очень простая задача для человека, но просто невыполнима, судя по всему, для ИИ - для неё нужно понимать. Понимать, что такое ты и где ты заканчиваешься. А помимо этого, это просто один из примеров, показывающий что ни сознания, ни тем более самосознания у GPT нет.

Ваша самоуверенность напрасна. Ну и, конечно, в развитии ИНС до точки ещё далеко. Я полагаю, в ближайшие годы Вы убедитесь, насколько поверхностными были Ваши теперешние оценки... (Впрочем, и слишком восторгающихся динамикой развития ИНС тоже ждут сюрпризы.)

Моя самоуверенность есть лишь антитеза текущему абсолютно необоснованному хайпу. Я знаю только что я ничего не знаю, но все вокруг делают вид что знают всё. Статьи и комментарии о том, почему GPT либо уже Strong AI, либо почти Strong AI и станет им уже в этом поколении, заполонили хабр.

Меня очень смущает почему вопрос веры (потому что существует примерно 0 доказательств, что сознание достижимо вне человека, равнг как и наоборот) мимикрирует под вопрос науки. Причём как-будто бы уже решённый. А я очень нелюблю, когда наука подменяется верой в науку.

Модели не могут быть разумны не потому что они воспринимают мир через текст. Модели не могут быть разумны по той же причине, почему разумны слепые и/или глухие - мир состоит не из текста (хотя он и очень очень важен для разума) а из того, что находится "за текстом" - абстракций, понятий, связей, мыслей, чувств и т.д. ChatGPT не видит ничего за текстом.

Вспомните, когда вы хотели что-то сделать, но "внутренний голос" вас отговаривал. Вы делали и понимали, что голос был прав. У ChatGPT, как у животного, голоса нет. Он не мыслит, он делает. Делает то что умеет, на что натренировали - мимикрировать под человека в письме. Трюк в том, что мы не ожидали, что можем заставить его так хорошо мимикрировать, отсюда и мысли про интеллект и прочее.

Пример с птицами. Вороны умнее попугаев, у них интеллект 3-5 летнего ребёнка и они могут выполнять достаточно сложные задачи. Но интуитивно мы думаем, что попугаи умнее, потому что они подражают речи. Поэтому и нейросети мы "очеловечиваем" - они превзошли в подражании всё, что мы видели, кроме настоящего человека.

Я не сильно согласен с вашем определением, но "готов умереть за ваше право это говорить" я рад, что ещё не все пересели на редукционистский подход и говорят что "квалиа", "сознания", "мышления" и прочего просто не существует. Попытки сформулировать отличие "человека от обезьяны" это важная веха в развитии "ИИ", потому что если (необъективно) различий нет, то нет и причин, почему мы не должны уже сейчас чистить ботинки ChatGPT.

А вы всю жизнь думали? И вы уж точно из той категории людей, которые всегда думают?

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность