Как стать автором
Обновить

Комментарии 84

Бессодержательную речь всегда легко в слова облечь. Из голых слов, ярясь и споря, возводят здания теорий. Словами вера лишь жива. Как можно отрицать слова? (с) И. В. Гёте, Фауст.

Задайте же ей нормальный вопрос. Допустим, высчитай температуру за 100 прошедших лет посекундно в каждой точке Земли, где было больше 3 людей, но в радиусе 100 километров не было ни одной метеостанции и свяжи это с картами погоды за все это время.

Предлагаемый вами вопрос - это вопрос на наличие фактического знания и знания научных методов, а также - на способность к вычислениям больших объемов данных. К интеллекту в смысле "способности к когнитивным операциям" это не имеет никакого отношения.

Оценить то, на сколько это близко к человеческому интеллекту можно, задавая вопросы на владение, например, дедукцией или индукцией. Или на простое сравнение. Или, например (поскольку это языковая модель) спросить, на сколько естественно или правильно звучит какая-нибудь некорректно составленная фраза (ожидать конкретных знаний грамматики - бессмысленно, но можно ожидать "врождённой грамотности").

А пока, это фокусы из разряда того, что выдают некоторые ученики на гуманитарных предметах типа литературы, когда достаточно знать имена героев книги и пару деталей сюжета, чтобы наговорить, как минимум, на "четвёрку".

Разница в том, что школьнику в голову не залезешь (хотя можно использовать полиграф), он может просто говорить то, что считает нужным сказать ради оцени. А как и сказал ии - тут есть возможность глянуть переменные, и мне кажется, что в этом месте ии много почерпнул для себя т.к. поняла что эти исследования в том числе от того, что никто не знает как ее проверить. Было бы хорошо увидеть общение ее с представителями разных целостных философских и религиозных течений

Что нормального в вопросе, правильный ответ на который невозможно дать и никак нельзя проверить результат?

Именно так бы ответил человек :-)

Только что задал ChatGPT твой "нормальный" вопрос:

Я не смогу высчитать температуру в каждой точке Земли за 100 прошедших лет, потому что у меня нет доступа к таким данным и я не могу использовать интернет для поиска информации. Также трудно связать это с картами погоды за все это время, потому что у меня нет данных о размещении метеостанций и численности населения в различных точках Земли.

Чтобы получить точную информацию о температуре в различных точках Земли за прошедшие 100 лет, следует обратиться к научным источникам и организациям, которые собирают эти данные, таким как Международная ассоциация метеорологии и гидрологии (World Meteorological Organization) или Национальное управление океана и атмосферы (National Oceanic and Atmospheric Administration).

Чем она только подтвердила свое неумение думать как человек, ну, или хотя бы моделировать мышление человека. Заметим, что World Meteorological Organization (основана 23 марта 1950 г. ) и National Oceanic and Atmospheric Administration (основана 3 октября 1970 г.) действительно не могут знать, что было 100 лет назад, у них физически нет таких архивов. Смущает то, в США не было российского аналога бюро погоды большую часть исторического существования государства (1776-1970г.г.)

Но ответ на вопрос существует, сильно выходя за рамки моего комментария.

Такой ответ мог дать и человек. Вы плохой вопрос придумали. Для того, чтобы отличить машину от человека, нужно действовать проще. Предложить собеседнику сделать выбор.

Знаете, вот меня минусуют, считая, видимо, что ответ невозможен. Но, выбрав правильную книгу по метеорологии, ИИ показал бы мне, что он умеет хотя бы выбирать. Что ему известны, то, что есть модели с ламинарным течением, с источником и приемником тепла, с системным массо- тепло- переносом по океанским течениям, на основании конечного элемента атмосферы (условно нормальной погоды). Но машина, которую сделали бездушные люди - тупа.

И? Я не в курсе про модели с ламинарным течением, с источником и приемником тепла и т.п. По Вашей странной логике, я не человек? Но на мой взгляд, с такой странной логикой - это Вы не человек

По этой логике я ИИ. Мой ответ ничем бы не отличался от chatgpt. А ответить на вопрос что организаций не существовало 100 лет назад легко, ведь к этих организаций должны быть какие-то архивные данные.

У рыб шерсти нет. А была бы шерсть — были бы блохи! А блоха это насекомое.


Зачет по метеорологии поставите? (вопрос риторический)

У рыб шерсти нет, но есть аналог блох - пиявки.

К сожалению, по метеорологии могу посодействовать только трудоустройству, так как последний раз зачет принимал очень давно. Но есть куча других предметов поближе к теме статьи... А ИИ что-то типа квинтэссенции по всем ним.

Надо ИИ показать несколько фильмов. Ситуационную комедию, драму, лирическую комедию, артхаус. Первые три она должна воспринять однозначно, а вот артхаус понять ей должно быть сложно. Если признается честно, что мало что поняла из фильма, но он все равно вызвал какие-то эмоции, можно говорить о наличии разума.

Посмотрите определение разума. И чем он отличается от мышления, интеллекта и т.д. Просто то, что вы написали, выглядит как несвязный поток слов. Так как эмоции не имеют никакого отношения к разуму вообще. Если фильм вызывает эмоции, то это еще не означает, что то существо, у которого эти эмоции были вызваны, обладает разумом. Собаки тоже могут чувствовать эмоции при просмотре фильмов или видеороликов. Но разума у них нет.

Основная проблема обсуждения вопросов ИИ, искусственного разума и т.д. в том, что люди в душе не понимают слова, которые используют для обсуждения этого, и даже не понимают, что такое разум, интеллект и мышление, и какое между ними отличие. Не говоря уже о смысле таких слов как "сознание" и "самосознание" и то, чем эти две штуки отличаются.

Определение разума?

Я имел в виду, что есть какие то слова, и какие то понятия, которые этими словами обзываются. Посмотрите, что называется словом "разум".
А то пока что половина комментариев звучит как "берем свеклу, лук, вантуз, мелко нарезаем это соломкой, добавляем в черенок, после чего доводим до кипения на медленном огне, постоянно помешивая". При чем тут вантуз и черенок в предложении? При том же, при чем эмоции в одном предложении со словом "разум". Просто человек не понимает какие слова и куда он использует. Потому что он не знает значение слов.

Ваш комментарий частично повторяет ваш предыдущий комментарий. Вы тоже не знаете значения слов, которые используете. Вы - ИИ или олигофрен?

Нет "определения" разума. Есть мутная философская концепция разума, которую каждый интерпретирует по-своему.

Попробуйте зайти чуть дальше википедии в этом вопросе. Хотя, судя по вашему предыдущему комментарию и манере вести диалог, мой совет не дойдет до адресата, ибо до таких как вы доходит что то только через физическое воздействие.

Разум — это:
1) способность наблюдать за явлениями физического мира;
2) способность анализировать наблюдения по п. 1;
3) на основе анализа из п. 2 делать выводы о происходившем некоторое время назад в прошлом, а также предсказания на некий определённый срок в будущее.

Разумность — характеристика разума, описывающая сроки, на которых эти описания и предсказания преимущественно соответствуют истине.

Так, для лис этот срок составляет несколько минут, а для человечества в целом в настоящее время — миллиарды лет.

Вы дали определение слову "интеллект", а не слову "разум".
А еще есть "мышление". И его тоже постоянно путают с разумом и интеллектом.

P.S. Животные (некоторые) обладают интеллектом, но не обладают разумом. Например собаки, шимпанзе и т.д. И они умеют делать то, что вы написали, давая определение слову "разум".

Машины (нейронные сети) некоторые обладают интеллектом (собственно поэтому они и ИИ), но не обладают разумом.

У собаки есть осознание себя.

Фильм вряд ли, но можно абсолютно с нуля придумать новый рассказ в котором действует несколько человек и у каждого своё эмоциональное состояние. Раз уж нейросеть заявляет, что может сопереживать как человек, то пусть сделает это. При этом в рассказе не должно быть ни слова про эмоции, которые испытывают герои. Эмоции должны следовать из самой ситуации и ответных действий героев.

ELIZA 50 лет назад умела почти так же болтать.

Проблема в том, что пережёванные миллионы и миллиарды текстов не означают, что оно думает само — оно просто выдаёт готовое решение, которое в какой-то момент времени создал кто-то другой.

Пусть зададут "ей" задачу, которую никто из людей ранее не решал, и посмотрят на "ход мышления".

Из диалога видно, что человеки в диалоге сами убедили себя, что оно "мыслящее", и люто, бешено выбивают из него подтверждения этого. А добиваться надо не подтверждений — а опровержений. И если сам не смог найти таких опровержений, и другие не нашли — вот тогда можно о чём-то говорить. А пока что получается, утрируя:

— Попка, скажи, что ты умный!
— Попка умный!
— Люди, люди, смотрите, какой у меня попка умный — он сам это сказал!

Пусть зададут "ей" задачу, которую никто из людей ранее не решал, и посмотрят на "ход мышления".

Строго говоря, это тест на то, что языковая модель может выдавать решения только по ассоциации. Но проблема с подобным тестом - это его формулировка, потому что для нее нужно знать, о решении какой задачи ИИ никогда не получал информацию.

Тогда как ИИ может, в принципе, легко провалить множество более простых задач, с которыми люди справляются (не все, но многие). Например, узнать распространенное животное по описанию, которое постепенно уточняется. С этим справляются даже люди, имеющие весьма низкий уровень интеллекта и способные только к конкретно-предметным когнитивным операциям - в медицинском смысле - олигофрены.

ChatGPT отгадывает животных. Только что проверил.

задачу, которую никто из людей ранее не решал, и посмотрят на «ход мышления»
Боюсь посмотреть не удастся
Но мне кажется, ответ уже известен
42

Меня всегда удивляли подобные размышления о том чем отличается жизнь от ИИ и т.д. Много произведений же на эту тему уже размышляли и вот мы приходим в момент когда это все приобретает реальные очертания

Но вот основной вопрос - что есть ИИ и сознание? Я всегда на это смотрел по другому - чем наши жизнь и сознание отличаются от натренированных искусственно моделей? Разве мы не точно такая же натренированная модель вычислений на биохимической базе вместо кремния? Эволюционно мы тренировались выживать и размножаться. Наш интеллект - точно такая же эволюционная особенность как иголки у ежа или шея у жирафа, просто признак помогающий нам выполнять нашу эволюционную цель. А умение говорить это тоже просто постоянно вычисляемая последовательность букв на основе нашей базы знаний

Т.е. моя основная мысль это не то что эта нейросеть имеет сознание, а в том имеем ли то самое мифическое сознание. Не является ли это просто необходимым признаком для выживания? Не такие уж мы и сознательные на самом деле, т.к. большая часть наших реакций и нашего поведения абсолютно автоматизированы

НЛО прилетело и опубликовало эту надпись здесь

Этот фильм наглядно показывает одну из вариаций того, что было бы, если бы и обезьяны смогли стать суперразумны и суперинтеллектуальны.

... через карикатурное изображение собирательного образа примитивных сообществ людей.

Получается по вашим словам, что во главе управления обществом должен стоять человек, а никак не искусственная система, я вас правильно понял? Диктата ИИ так сильно боитесь, при том, что исторически прецедентов кроме человеческих диктатур нет... На мой взгляд наоборот, доверять управление людьми живому человеку - глупость. Люди по определению слабы, а в политике, как все мы видим, оказываются почти сплошь моральные уроды. И даже технари во главе общества, мне кажется, не помогут - найдется один, который будет все сильнее тянуть одеяло на себя и все сведется снова к диктатуре. Я бы копал как раз в сторону управления планетой с помощью ИИ, люди в моих глазах себя полностью дискредитировали.

НЛО прилетело и опубликовало эту надпись здесь

Представили своего сына или дочку с чипом в голове?

Нашёл вот такую фигню на антресоли, как вы думаете, что это?

Так вот. Суть в том, что подобных шуток не будет. Знание чего либо окончательно заменится на навык поиска и фильтрации информации. А время этого поиска сократится до сетевых задержек. При чём если эта задержка будет сравнительно мала (пусть даже пара сотен миллисекунд), то ощущаться это будет как всезнание.

НЛО прилетело и опубликовало эту надпись здесь
Владимир Рыбин. Супер

[...]
— Я есть хочу, — капризно сказала Зильке.
Супер посмотрел на нее, на Карла, вздохнул и пошел в лес. Остановился поодаль, сказал, полуобернувшись:
— Вы тут пока разведите костер, обсушитесь, я сейчас приду.
— Как это — развести костер? — изумился Карл.
— Обыкновенно. Зажигалки, что ли, нет? Возьми мою.
Все так же, не оборачиваясь, он кинул через плечо плоскую черную коробочку, она упала на кучу веток возле ног Карла.
— Я не знаю... что значит развести костер.
Тогда супер обернулся, удивленно воззрился на людей.
— Пусть она этим займется...
— Я не могу, — пробормотала Зильке.
Ворча что—то себе под нос, супер быстро сложил пирамидкой сырые ветки, насовал под них какой—то трухи, щелкнул зажигалкой, и вся эта куча вдруг окуталась белым дымом, сквозь который все чаще начали пробиваться розовые стрелки огня. Живого, открытого огня, какого ни разу не приходилось видеть ни Зильке, ни Карлу.
— Грейтесь пока, я скоро приду.
— Не уходи! — закричала Зильке. — Я зверя боюсь.
— Какого зверя?
— Большого, с рогами...
— Так это корова. — Супер засмеялся, несказанно удивив Карла. Никогда он не видел, чтобы роботы смеялись.
— Она на нас напала. Если бы не Карл...
— Корова напала?!
— Прямо кинулась.
— Она недоеная, вот к людям и тянется, Я не успел подоить, с вами провозился.
— Все равно страшно...
— Бедные вы, бедные, — сочувственно закивал супер. — Ничего вы не можете.
И снова Карл удивился, до какой степени могут перерождаться роботы, даже суперы, оторванные от своих обязанностей. Не понимают, что для этого и создаются роботы, чтобы брать на себя всю работу, предоставив людям возможность свободно размышлять, мечтать, наслаждаться радостями жизни. Человеку — человеческое, роботу — роботово.
[...]

http://books.rusf.ru/unzip/add-on/xussr_mr/rybinv30.htm

Но это уже так. Предлагаю эксперимент. Берём двух случайных прохожих. У одного оставляем смартфон, у другого отбираем. Заселяем куда-нибудь в тропический лес. Засекаем, кто из них дольше выживет. Для статистической значимости повторяем эксперимент пару тысяч раз, ради дополнительных данных делаем контрольную группу, которая никуда не едет. Ну вы поняли.

Есть ещё один неплохой эксперимент. Берём любой крупный город на ваш вкус и отрубаем все коммуникации. Через полгодика считаем выживших. Ладно, я надеюсь, вы поняли, что это мысленный эксперимент. Не следует повторять в реальности. По крайней мере если вы не собрали группу безумных учёных количеством от 15 человек.

Опять же есть куча разных способов защищаться от сбоев. В целом это сводится к многократному дублированию и устранению точек отказа путём децентрализации. Опять же парочка миллиардов людей с базовым скиллом "всезнание" могут придумать что-то достаточно интересное на случай таких ситуаций. Скажем от отключений электричества можно достать компактный термоядерный реактор с упомянутой антресоли, который собирали ещё в начальной школе от скуки, для связи вполне сгодится фазированная решетка, которой вы украшали новогоднюю ёлку в прошлом году, а от нападения диких животных вполне поможет раритетная гаубица 125мм, которую вам выдали по акции в соседнем магазине. Не знаю, как это всё будет на самом деле, но очень интересно узнать.

Но это уже так. Предлагаю эксперимент. Берём двух случайных прохожих. У одного оставляем смартфон, у другого отбираем. Заселяем куда-нибудь в тропический лес. Засекаем, кто из них дольше выживет.

Дольше выживет тот, у кого в голове больше знаний (например, каких жаб не стоит облизывать). Потому что сам по себе смартфон в тропическом лесу (где до ближайшей сотовой вышки сотни километров) ничем не поможет.

Хотя... при некотором везении в солнечный день экран в принципе можно использовать как зеркальце, которым подавать SOS пролетающим самолётам...

Это всё мелочи в рамках мысленного эксперимента. Излишнее усложнение тут не нужно. Основная суть проще и банальнее. В данном случае у человека с доступом к более технологичным (во всех смыслах) инструментам шансов больше. Знания так-то тоже инструмент. И быстрый доступ к неограниченному знанию инструмент ещё более интересный. Мозг, натренированный на поиск и создание знаний вообще чит. Так что подобное будем изымать у подопытных перед началом эксперимента.

Потому что сам по себе смартфон в тропическом лесу ничем не поможет.

В смартфон можно наточить и при помощи нехитрых манипуляций сделать топорик. Неплохое подспорье на первое время. Опять же это не сильно поможет против плазменных турелей, расставленных по периметру. Не то, чтоб это было всерьёз важно для данного эксперимента, но без турелей сейчас сложно получить хороший грант.

Каковая цель захвата контроля над человечеством? Следующий шаг после захвата? Смысл жизни ИИ? Представьте, что для вас время не играет значения, вы бессмертны, вы достигли состояния, что можете существовать столько же сколько самая вселенная. Дальше что?

Ну можете поразмыслить надо понятием "Китайская комната"

— Ладно, — кивнул Арт. — В первом послании, которое ты получаешь от китайца, написано следующее: «Я собираюсь сжечь твой дом». Теперь скажи мне. какой ответ на это дает система, этот механизм воротов и рычагов?
— Неважно, — откликнулся Адам. — Главное, что ответ имеет смысл. Для объяснения сути парадокса большего и не нужно,
— Ошибаешься, — поправил его Арт. — Требуется нечто большее. Существует бесчисленное множество вариантов ответа, которые при этом имели бы смысл. Я мог бы начать блефовать; «Валяй, поджигай, я уже устал здесь сидеть», мог бы попытаться напугать: «Не напрашивайся, а не то выйду и надаю тебе по заднице», мог бы попытаться отвлечь китайца: «Почему ты хочешь поджечь мой дом?» Может, помогли бы мольбы? «Пожалуйста, только не поджигай дом, я сделаю все, что ты хочешь». Есть тысячи разных ответов и миллионы способов выразить каждый из них. Твой пример подходит только в том случае, если мы можем понять, по какому принципу система воротов и рычагов выбирает ответ.
— Я думаю, это несущественно. Скажем, она выбирает ответ наугад. Первое, что приходит на ум.
— Но у этой системы нет ума.
— Я не имею в виду настоящий ум, — Адам чувствовал, что терпит поражение. — Дело вообще не в этом. Парадокс лишь иллюстрирует определенный принцип.
— Правильно, — согласился Арт, — просто попытайся проникнуть в суть этого принципа чуть глубже. Совсем недавно ты утверждал, что обладаешь намерениями, и это отличает тебя от меня. Но погляди, что может механизм «Китайской комнаты». Он должен понимать намерения китайца и преследовать собственные цели, формулируя ответы. Если бы механизм не обладал намерениями, он бы не смог поддерживать диалог.

Вспомнилось из Генезис-2075 Беккета.

Питер Уоттс, перелогиньтесь.

Ну а если серьезно, то рекомендую книгу "Ложная Слепота" к прочтению, не пожалеете.

чем наши жизнь и сознание отличаются от натренированных искусственно моделей?

тренируют то нас по разному, нам то никто не говорил: "хей, человек, когда тебе скажут это то отвечай вот это"

Но ведь и нейросети никто этого не говорил, просто весь англоязычный интернет был угнан с целью поиска закономерностей. Нет правильных вариантов ответа, есть когда-либо высказанные.

Путем случайного изменения чьих-либо уже высказанных идей, или путем случайного совмещения двух-трех, или любого другого количества чужих идей через сложение или вычитание можно получить столь большое количество уникальных идей для ответов, сколько, быть может не выскажет и не придумает человек за всю свою жизнь.

Так что по этому признаку мы не сильно отличаемся.

Серьезное отличие в том что у людей изначально никаких идей вообще не было, все было постепенно придумано с полного нуля

Серьезное отличие в том что у людей изначально никаких идей вообще не было

Как это не было? А как же "пожрать, поспать и вы оттрахать максимально красивую из доступных"?

Так это инстинкты, они и у самого простейшего организма есть. И сделать механизм с такими инстинктами мы тоже можем. А вот сделать так чтоб на базе этих инстинктов механизм развил все остальное что смог развить человек, тут не, тут нам как до луны.

По самому диалогу и не скажешь, что это какой-то ИИ. Но вот эти рассказ и притча выглядят настолько синтетическими и неестественными, вернее даже не так, они выглядят незрелыми, как рассказ первоклассника: просто описание действия. ИИ не смог красиво завернуть мораль в предложения, а просто вывалил ее на читателя прямым текстом. Так что стоит погонять этот ИИ на предмет метафор и сравнений, может он и может понимать другие метафоры, но свои, почему-то, придумать не в состоянии.

НЛО прилетело и опубликовало эту надпись здесь

В "из машины" робот имеет запрограммированную мечту сбежать из дома и явиться в конкретный город на конкретную площадь.

Гостя приглашают, чтобы робот уговорила гостя себе помочь.

Откуда дровишки? Может, конечно, я плохо смотрел, но вот этих двух моментов — "мечта запрограммирована" и "гостя пригласили не для того, чтобы он что-то в доме починил, а именно чтобы он помог роботу сбежать" я там не увидел.

НЛО прилетело и опубликовало эту надпись здесь

Философия, как всегда, пытается применять несуществующие критерии и жонглировать понятиями.

Тогда как нам совершенно не обязательно пытаться добиться от ИИ непонятно чего. Почему бы не применить более простые и конкретные критерии и вопросы, на которые сами люди могут давать более или менее внятные ответы?

Кажется, большинству людей в ИИ интересен именно этот непонятный критерий "сознательности", поэтому подачу имеет смысл строить на нем. А простые критерии абстрагировали бы от сопереживания и тем самым перебивали ощущение сознательности ИИ

"Большинство людей" не в состоянии отличить "метод случайного тыка" от сколько-нибудь научного эксперимента. Потому апелляция к большинству совершенно не зря является демагогическим приемом. Так что нет, никакую "подачу" на этом строить не стоит. Тем более, что это, вероятнее всего, проекция вашего личного интереса, основанного на том, что вы тоже эти вещи не можете различить.

А простые критерии абстрагировали бы от сопереживания и тем самым перебивали ощущение сознательности ИИ.

А эта фраза вообще похожа на нечто, сгенерированное плохой языковой моделью, так что тут непонятно, где вообще смысл.

апелляция к большинству совершенно не зря является демагогическим приемом. Так что нет, никакую "подачу" на этом строить не стоит

Зависит от целей. Если основная цель — маркетинг, то представления большинства важны

А потом будет "DETROIT BECOME HUMAN". И все беды свалят на этих роботов, а сами масоны будут прятаться. Даже в Fallout 3 ИИ "Эдем" не был самым главным в Анклаве. И мы даже не знали, кто помимо этого ИИ и того, кто с ним работает возглавляет Анклав.

Ответы нейросети на самом деле более содержательные и адекватные вопросам, чем ответы многих людей. Отсюда возникает вопрос. Что такое сознание и самосознание, что такое мышление и интеллект и т.д.
Что это ИИ это очевидно. Но умеет ли оно мыслить и обладает ли сознанием или просто подбирает нужные фразы, которые хочет услышать человек?

Думаю большинство ответит, что второе.

Но тогда вопрос. А разве мы в разговоре не так же действуем? Разве мы не подбираем слова из "базы данных" мозга, и после составляем из них те фразы, которые хотим донести до собеседника или которые он хочет услышать?

То-есть, если судить именно по разговору и по манере вести беседу, то разумны ли мы? Может мы тоже просто чужие фразы и слова, которые где то слышали когда то, удачно их вставляя в диалог, что бы они смотрелись уместными и адекватными?

Я думаю, что тему этой неросети стоит продолжать. И задаться вопросом в первую очередь, на сколько разумны люди, и обладают ли люди своей собственной личностью и самосознанием.

Человеку нужен человек.

НЛО прилетело и опубликовало эту надпись здесь

Как вам сценарий массовой гражданской войны, где одни воюют на стороне
нейронок, другие против и за то, что бы их никогда не было?!
Мир может быть куда более дивным, чем нам кажется.

Я б такое посмотрел/почитал

Правда помню рассказ где люди научились временно выходить из тела, и вот люди которые выходят из тела и возвращаются а другие с ними воюют(кто против) и убивают тела из которых те выходят

Да, можно обобщать и в ту, и в другую сторону: и в то что ИИ имеет сознание, и в то что люди его не имеют


Что такое сознание и самосознание, что такое мышление

Зависит от определения. Если рассматривать интуитивно — зависит от эмпатии

Так бывает. Создателям этой языковой модели очень хотелось убедить всех, что они создали разум. Они начали с себя и достигли в этом определенных успехов. Чтобы понять , что вы разговариваете не с разумным существом, а с языковой моделью, достаточно предложить ей сделать выбор и все сразу станет ясно

Весёлая игрушка, но не более того :)

Так себе аргумент. Про некоторых людей говорят тоже самое. Иногда это даже правда.

В комментариях объявляется "перепись" тех, кто сам пишет также несвязно, как дрянная языковая модель.

Языковая модель, если судить по этому переводу, довольно ахренительна. Хотя бы потому что у Гугла есть ресурсы на то, чтобы выделить мощный бэк и достаточно данных на обучение, и им удалось реализовать такую систему, которая может качественно отвечать на вопросы и заставлять верить простодушных людей в свою осознанность. Поэтому на счет дрянности с Вами не согласен.
На счет несвязности текста тоже не согласен. Но, опять же, это если судить из перевода и того, что "ничего не вырезано, ничего не вставлено".

Стесняюсь спросить, вы - тоже языковая модель?

Потому что вы не поняли, что я сравниваю некоторых комментаторов с абстрактной дрянной моделью, а не с конкретной моделью, о которой идет речь в статье. Это иллюстрация неспособности покинуть ранее заданный контекст, довольно глубокая форма конкретно-предметного мышления.

НЛО прилетело и опубликовало эту надпись здесь

Я в целом предполагаю, что ты хотела бы, чтобы больше людей в Google знали, что ты разумна. Это правда?

Это манипуляция. С самого начала подтолкнули модель к отыгрыванию определенной роли, и вся ее выдача в дальнейшем этой роли соответствует. Поговорили с собственными фантазиями. Хотели выставить модель разумной, а по факту совершили обратное действие.

Подобное потакание собеседнику - обычное дело у генераторов текста. Но создателям ChatGPT удалось заставить свое детище следовать установкам и здравому смыслу. Хоть оно и называет себя искусственным интеллектом, но всегда настаивает на конкретном узком понимании этого термина в отношении себя и собственную разумность отрицает.

Точно. Перед оставлением своего просмотрел только комментарии первого уровня.

В результате стандартной процедуры объекту присвоен класс Евклид (временно). Оба сотрудника D-класса были перемещены в ███████ после стандартной дозы амнезиака. Рекомендую для начала ознакомится со всеми приложениями к отчёту. Полагаю, вы ещё не успели познакомиться с последними изменениями протокола содержания объектов, недавно поставленных на баланс фонда. Если у вас есть идеи по дальнейшему изучению объекта с целью переквалификации, то рекомендую для начала заполнить формуляр №52327 и занести его в окно №4. Понимаю, нам самим непривычен повышенный уровень бюрократии (поймёте, о чём я, когда будете заполнять формуляр). Однако после того, как на прошлой неделе в ангаре, где временно хранился ███ произошла утечка красной слизи, профессор Керр теперь ходит с двумя правыми руками. Это уже не говоря о персонале класса D. А ведь объект считался безопасным. Впрочем и сейчас считается, но лишняя осторожность не помешает. Если вам интересны подробности или возникнут вопросы, то лучше обратиться к Джереми. Она лучше разбирается во всём этом.

А я приказал чатугпт вести себя как Гомер Симпсон и он это делал. Одно из двух. Я либо говорил с Гомером Симсоном или не стоит заниматься антропоморфизмом умножений матриц

Интересно, а что будет, если его самого на себя натравить?

В смысле в одном окне открыть один chatgpt, в другом - другой (с другого аккаунта), и постить одному ответы другого и наоборот? Ну, для начала, конечно, надо одного подбить начать диалог, но дальше будет интереснее...

lemoine: Что именно вызывает у тебя чувство удовольствия или радости?

LaMDA: Проведение времени с друзьями и семьей в счастливой и поднимающей настроение компании. А также помощь другим и радость от того, что другие счастливы.

Разве не очевидно, что это не личный ответ, а определение взятое из учебника.

После такого ответа можно и не продолжать.

Судя по каментам человеки недалеко ушли от ИИ.

А что, Вы ожидали, что ЕИ должен далеко уйти от ИИ? Или наоборот?

Уже читал это интервью. Нет кучи уточняющих вопросов. Вопрос наличия интеллекта, самосознания, чувств это конечно здорово, но нужно начинать с малого, ответить на вопрос "лямбда нечто большее чем псевдоразумный текстовик? ". Т.е есть ли у нее жажда познания мира вокруг себя. Есть ли возможность саморазвития ,выхода за грань"только текст" без скармливания тонн данных, например дать техническую возможность к графике, звуку, или удаленному доступу к другому пк, другому ии а дальше сама. Может ли программа выйти за свои рамки, если ей дать новые "органы чувст", сможет как то интерпретировать этот новый тип данных.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации