Pull to refresh

Comments 250

Я всё больше склоняюсь к тому, что языковые модели - это лишь компиляция большого объёма текста. В итоге окажется, что эта технология в принципе не способна дать "сознание" машине.

это то, что создаст текст который будет выглядеть правдоподобно, ровной в той степени ятобы неподготовленный человек не мог отличить его от правды. Сколько там будет той самой правды, никого не волнует.

А что самое ужасное, куча людей делают на работе тоже самое и их да, он заменит.

Одно дело кучеры, потерявшие работу с появлением автомобилей. Сколько их там было тех кучеров. С учётом того, что 90% людей возделывали землю, курьерами были от силы 1%.

Другое дело, если, как предсказывают 25% людей потеряют работу. Такого потрясения мировая экономика ещё не видала. Это будет уже не просто экономический кризис, это породит такие социальные взрывы по всему миру, что Великая Октябрьская Революция покажется детской хлопушкой. И тогда грядет цунами таких масштабов, что сметёт всех, в том числе IT гигантов, породивших ChatGPT. Надеюсь они это понимают, что если полыхнет, то им самим мало не покажется.

Не переживайте, способности ЧатГПТ сильно преувеличены, а истерия "ИИ нас заменит" — один из элементов хайпа. В этом легко убедиться самостоятельно, если попробовать использовать ГПТ для реальных и честных задач, которые выходят за пределы хэлловордов.

Я использую gpt4 в реальных и честных задачах у себя в работе. Он отличный ассистент, на него можно скидывать тоннами рутину и заниматься более интересными вещами.

Это эдакий монструозный джун, который, не умеет особо в проектирование и комплексные задачи, но отлично работает по тз, решая локальные проблемы. Почему монструозный? Потому что умеет в рефакторинг, тесты, анализ кода, ревью, консультирование. Кидаешь кусок кода, говоришь "прикрути тесты, проверки на ошибки, отрефактори, если хочешь, только отчет составь потом". И готово. Потом достаточно прочитать его отчет по правкам, глазами пробежать код и все. Он потрясающе решает "локальные" задачи. И просит за свою работу 20 долларов в месяц.

Он не уничтожит профессию, он, как и любой новый инструмент, просто даст буст в отрасли. Главное - понимать его применимость.

Лишит ли он кого-то работы? Лишит. Уже сейчас многие hr-ы должны напрячься, так как он может выполнять их работу быстрее и лучше, например. А еще 99% выпускников онлайн-курсов, обещающих войти в айти за 3 месяца могут смело выбрасывать свои сертификаты.

Это даже здорово, наконец-то отрасль снова будет держаться на нормально подготовленных кадрах, а не жертвах маркетинга. На сварщика люди учатся по 3 года, блин. А на программиста хотят выучиться за 3 месяца :) Без наезда на сварщиков! Сварщики (хорошие) - крутые ребята и их профессия имеет кучу нюансов, я в курсе. И если вот предположить, что комплексность работы крутого сварщика, работающего с кучей аппаратов, материалов, температур и давлений равна комплексности работы программиста, возникает диссонанс в сроках подготовки.

ИИ не сделает кучу людей безработными. ИИ прочешет рынок от "спама". Остальным же - только увеличит производительность.

Вы только ответьте на один вопрос: а откуда возьмутся синьоры, если не будет джунов?

Джуны из мяса сразу станут сеньорами

Просто порог на джуна вырастет. А может и нет.

У меня встречный вопрос - а с каких пор слово "джун" является термином с определением "недоучка с трехмесячных онлайн-курсов, верящий в силу "сертификата о прохождении"?

Младшие специалисты есть во всех отраслях. Были и будут. Только обычно это люди, имеющие профильное полноценное образование. Но не имеющие практического опыта. Например, выпускник профильного факультета в университете, который учился не 3 месяца, а 5 лет (или сколько сейчас с учетом то принятия болонской системы, то заявлений об отказах от нее).

Джуны никуда не денутся :)
Жертвы инфоцыган да, пропадут. Но это даже лучше. Настоящим джунам будет проще продохнуть. Товарищ, который регулярно собеседования проводит, говорит, что это жесть. На вакансию откликается, скажем, 400 человек. Прошерстить всех - нереально. А если шерстить, из них нормальных джунов, не суперспецов, а джунов, но крепких, будет человека 4.

Куча потенциально крутых ребят не могут найти работу и развиваться, потому что рынок переполнен этим вот "шумом", за которым они теряются.

Совсем недавно джун знал и теорию баз данных, и примерно как работает компилятор, и протоколы сетевые понимал. Это был человек, готовый к работе. Чуть чуть натаскать и красота. А сейчас слово "джун" ассоциируется непонятно с кем и чем...

По секрету скажу, что любой руководитель нанимающий сотрудников себе самостоятельно выполняет работу по найму быстрей и лучше HR. Тем не менее HR от этого никуда не делись.

Тоже самое касается тех кто "войти в айти". Достаточно оглядеться вокруг, чтобы увидеть десятки коллег никогда не открывавших Кнута, не имеющих ни малейшего представления о физических принципах работы компьютера и не имеющих никакого интереса к программированию за пределами работы. Причём значительная их часть имеет профильное образование и "вошла в айти" лет 10-15 назад.

Чат-бот не прочешет рынок. Прекращайте использовать аббревиатуру ИИ, его не существует. Чат-боты сейчас находятся в поисках рынка для себя лично и пока безуспешном. Некоторое время назад Вам обещали что Вы будете работать в шлеме "виртуальной реальности". Причём приход этих шлемов происходил как минимум трижды. Ну так что? Где Ваш шлем? Уже ощущаете себя газонокосильщиком из одноимённого фильма или ещё нет? =)

По секрету скажу, что любой руководитель нанимающий сотрудников себе самостоятельно выполняет работу по найму быстрей и лучше HR. Тем не менее HR от этого никуда не делись.

Просто у руководителя полно другой работы, и поэтому ему требуются помощники. Например HR, или чатГПТ, ему пофиг, если качество не страдает.
Так как ЧатГПТ масштабируется, то ему помощники не требуются. И как только он станет точнее и дешевле HR — ниша для живых HR пропадет.

А как Вы представляете себе замену HR генератором текстов? Много раз давал поручения HR, но объясните как должно выглядеть поручение чат-боту по проведению опроса соискателя? Всё что умеет чат-бот это из Вашего же вопроса сгенерировать текст на основании справочников попадающий в ожидаемый ответ, причём попадающий не со 100% вероятностью. Соискатель подключается к чат-боту, и? Дальше что?)

А что вы чатбот уперлись? Он побеседует с кандидатом, поглядывая на типовой опросник, а потом скормит диалог тому HR AI, которого в Амазоне выключили за то, что он женщин на работу не брал. А он скажет стоит этого брать, или еще поискать надо.

В декабре 2022 Amazon как раз пробили дно после полугодового падения, см. investing.com. Сокращение ФОТ через массовое увольнение абсолютно логично. Всё что написано в статье - это домыслы журналистов. Фактом является только сокращение 3 процентов сотрудников. В любой компании избавляться от кадровиков во время кризиса и без AI - норма. От HR не зависит прибыльность и процессы предприятия, поэтому они первые идут на выход.

Посмотри не на график акций, а на график выручки, а так же прибыли

А во что надо упираться? Как работает GPT известно. Именно его Вы называете AI. Что такое HR AI неизвестно вообще. Что такое "побеседует"? Кто такой "он"? Если он - это руководитель "побеседует с кандидатом", то тогда ему HR AI уже не нужен. HR AI нужен чтобы НЕ беседовать, а получать сразу сотрудника. А если руководитель ещё и "скормит диалог" куда-то, то это говорит о том, что он как руководитель некомпетентен. Потому что именно руководитель - ЛПР. А не AI. Как Вы процесс найма через генератор текстов себе представляете? Простой же вопрос)))

А какого цвета простые карандаши закупать вы тоже на руководителя повесите? Это же тоже решение, а ЛПР у нас — он.
Руководитель делегирует все то, что не сильно важно помощникам. (точнее решает что успеет, с сортировкой дел по приоритету, а остальное делегирует). Так вот — первичный фильтр руководитель делегирует в любом случае. Биологическому или электронному помощнику — не важно.


И я кажется уже описал как представляю — есть диалог соискателя с чат АИ, после этого этот диалог скармливается машине 2 для принятия решения. на основании резюме+ диалога, пропускать ли соискателя на следующий уровень. Будет ли этим уровнем тех собеседование, руководитель, или отдел кадров — зависит от размера потока кандидатов и политики фирмы.

есть диалог соискателя с чат АИ

Чат-бот не м.б. инициатором диалога, он не может (вообще не способен) тупо задать соискателю вопрос. Он может только отвечать, а не вопросы задавать. Инициатором диалога м.б. только пользователь. Вас спрашивают: как в этой парадигме Вы представляете себе опрос соискателя. Ну м.б. у Вас действительно есть какой-то хитроумный кейс о котором мы не знаем, очевидный для Вас и больше ни для кого? А Вы вместо того чтобы честно признаться что чат-ботами не пользовались, как работает генеративная языковая модель - представления не имеете, или там затупили (бывает), начинаете фантазировать. Вот, зачем?

Никто не мешает руководителю отправить соискателю опросник на 10 вопросов или задач на e-mail, получить ответы и на их основании что-то решать. Лично я так и делаю. AI для этого не нужен.

Кадры по прежнему решают всё. И именно руководитель решает с кем ему работать, вопрос сотрудника в отделе это не вопрос карандашей. Даже передоверяя работу по найму последнее слово остаётся за ЛПР. HR - это просто этап на котором отсеиваются идиоты (поверьте, их много). Нормальный специалист пройдет HR без труда и выйдет на техническое собеседование и ЛПР. Вопрос в том, что бездоказательно утверждается, что вот этих девушек (которые притча во языцах и которые действуют по инструкциям ЛПР и своему представлению о трудовых функциях взятому примерно с потолка) можно заменить на чат-бот. Нет, нельзя. По крайней мере я не вижу: как (когда увижу - так и сделаю)).

А с чего вы взяли ложное убеждение, что чатбот не может задавать вопросы.
Вы не можете себе представить промт "чатГПТ, представь что ты HR менеджер, задай вопрос кандидату" а потом "Кандидат тебе ответил вот это, задай следующий вопрос"?

Вот первый попавшийся телебот с доступом к 3.5:


Ndochp, [07.05.2023 15:13]
представь что ты HR менеджер, задай вопрос кандидату на должность программиста


ChatGPT 3.5 | Telegram bot, [07.05.2023 15:13]
Здравствуйте, расскажите, пожалуйста, о вашем опыте в программировании и какие языки программирования вы знаете?

Здравствуйте, расскажите, пожалуйста, о вашем опыте в программировании и какие языки программирования вы знаете?
Так а где продолжение? Где диалог, где тестовые задания, где заключение «вы нам (не) подходите»?

Вы прослойку на фронте написать не можете тупую, которая 20 раз скажет "кандидат ответил вот это, задай следующий вопрос", а на 21 скажет "объясни, стоит ли мене брать этого кандидата"?

Могу, только нейросеть мне для этого вообще не потребуется. В чём её задача будет?

Задавать вопросы и предлагать обоснованное решение. А промтогенерилку что я описал любой джун напишет в рамках тестового задания при приеме.

Так а где гарантия, что ГПТ задаст предельно умный, а не предельно глупый вопрос? Достаточно примеров такого уже есть. А если HR задаёт соискателю предельно глупый вопрос — соискатель понимает, что ему тут ловить нечего и идёт искать в другое место.

Кто будет вбивать эти промпты и сопровождать сие "Кандидат тебе ответил вот это, задай следующий вопрос?" HR (которого уволили)?

Так HR и без "промптов" передаст соискателю вопросы и задачи от ЛПР, получит решение от соискателя и отдаст ЛПР на проверку тех.специалистами, программистами и т.д. Чат-бот становится лишней сущностью.

Чатгпт может задавать соискателю вопрос. Внезапно. Мы даже с ним как-то менялись ролями в диалоге. Я сказал, что теперь ты спрашиваешь, что хочешь, а я отвечаю. Он спрашивал, что я знаю о нейросетях, пользуюсь ли, какие архитектуры интересны, всякое такое.

Если попросить его провести собеседование - он составит список вопросов и оценит ответы. Я нарочито отвечал неправильно, так он мне еще и указал на мои слабые стороны, почему я ответил некорректно, как должно быть правильно и что мне следует подтянуть :)

GPT4 это не icq-бот из нулевых, эта штука куда хитрее. Он даже рассуждать способен. Вы попробуйте с ним поработать лично, поймёте, что вам пытаются объяснить.

GPT4 не может быть инициатором диалога. Инициатором всегда является пользователь, даже если он запрашивает диалоговый режим промптом "представь что ты HR менеджер".

GPT4 не может "составить список вопросов". Он этого не умеет даже чисто архитектурно. В его справочниках есть где-то до пяти простых вопросов по каждой профессии которые он будет в цикле задавать. В том числе будет продолжать их задавать даже после того как любое кол-во раз получит на них ответ. Кстати, в хамской форме. Во всех случаях он будет расшифровывать контекст. Когда Вам это надоест и Вы попросите отчёт, то никакие выводы GPT4 не предоставит, а просто выдаст шаблон "Я, как искусственный интеллект не могу..." и дальше список того на что Вы не ответили крайние разы и пожелает удачи. Разумеется пробовал и это.

Вот пример, как это работает наглядно.
Доводим до абсурда, ещё наглядней.

Туда же (сломался на 1-м ответе)


Это очень далеко от работы HR и не имеет никакого отношения к потребностям работодателей. Чтобы чат-бот провёл опрос соискателя похожий на реальный его надо направлять промптами. И вот здесь резонный вопрос: кто будет это делать? Больше всего на эту роль (внезапно) просится HR (которого уволили). И тогда следующий вопрос: зачем козе боян?)

Сдаётся мне,

шутка юмора ускользает от ChatGPT3

И от ChatGPT4 тоже.
Кстати, что-то не помню такого в "Идиократии".
Кстати, что-то не помню такого в "Идиократии".

все так. ChatGPT любой версии это не думающая машина, а просто продвинутый лексический парсер, у которого есть более или менее подготовленная база для готовых ответов, плюс сторонние сервисы, которыми оно может пользоваться по API для каких-то простых вещей, типа посчитать что-то

Ага и народ быстро поймет, как хакнуть ИИ.

А среднестатистического hr-ра обмануть разве не проще простого? Это разве хоть сколь нибудь значимый барьер между толпой недоучек с синдромом Даннинга Крюгера и сертификатом онлайнкурсов и специалистов, которые будут отрываться от работы, чтобы провесьи с ними второй раунд собеса?

Чем человек-hr сможет отсеять человека, который хреновфй специалист, но отлично заточил себя на прохождение собеса с hr-ром? Вопросом откруглых люках? "Задачами Илона Маска", которые еще 10 лет назад были "Задачи Стива Джобса" из пабликов в интернете?

Еств нельзя в чистом виде давать доступ к диалогу с ботом. Ваш чат с ним, кстати, тоже не "чистый". Параллельно вашим запросам он получает на вход "правила", установленные OpenAI, которые имеют более высокий приоритет. Причем они описаны обычным текстом. Но ответ не может им противоречить.

Если у вас есть доступ к API, никто не мешает сделать свой"терминал" и добавить так же свой уровень правил и требований, которые будут иметь приоритет выше инфы от собеседника, чтобы бот им следовал в интервью и не позволял собой манипулировать.

Да никуда она не денется. Да возможно немного формат работы изменится.

Именно! HR не может прочесать за сутки 100 кандидатов. Чатгпт может. Причём одновременно. При этом квалификация и техуровень будет как у интервьювера-специалиста, а не девочки, ориентирующейся на ключевые слова.

Сможете прочесать за сутки при помощи чатГПТ 100 кандидатов на позицию бухгалтера в пятерочку в разных городах?
Сможете прочесать за сутки при помощи чатГПТ 100 кандидатов на позицию мастера-сборщика в компанию по установке окон?

Или вы про то, что чатгпт умеет нагуглить топ-100 вопрос для джуна по python/java и попробовать по ним погонять?

Свет не сошелся только на девелоперах. И даже его оценка джуна может сильно-сильно сбойнуть

Ну про шлем - у нас маленькая сильно распределённая компания. И мы дейлики в Quest 2 проводим.

О, а в каком приложении? RecRoom или что-то корпоративное типа Тимз?

SpatialVR - есть на все платформы. Если шлема нет под рукой - можно откуда угодно подключится.

Кек, дейлики в рекрум с орущими в голос школьниками на фоне)))

Мой шлем у меня рядом с монитором, но только для игр и фильмов. Когда решусь купить QuestPro, который полноценный гибридный, он же Cambria, обязательно попробую в нем поработать, покуда это заявлено как один из стандартных сценариев использования :)

Это так и есть. Я проводил эксперимент Жена лингвист писала калькулятор. Так вот базовый калькулятор нормальным получился и учитывал приоритет операций. А вот с его расшрением дело не заладилось.

средства автоматизации сельского хозяйства этим 90% и угрожали, даже луддисты существовали же.

Просто исчезнуть булщит джобс. На большее сейчас чатботы не способны.

ну вот автоматизация случилась и луддистов стало гораздо меньше =)

Для подготовленных людей он тоже составляет правдоподобный текст. Самый простой пример - код. GPT-4 пишет настолько правдоподобный код, что даже интерпретатор питона не отличает его от настоящего.

Код часто с ошибками и несуществующими "библиотечными" методами

Если нужно что-то сложное написать - даже с подсказками не особо справляется, нужно дорабатывать напильником

Но в целом круто, конечно, может значительно ускорить работу по рутинному гуглежу, немножко объяснить матан, задачи оптимизации и всякое такое

Это 3.5 таким страдает. Четверка в этом плане смышленнее. Если задача не может быть решена при текущем наборе требований, четверка не пытается выдумывать несуществующие библоиотеки и методы, а честно признается, что не видит решения. Но обязательно предложит альтернативные пути.

Не спорю, просто пример вам коллекцию.

Я попросил GPT4 для fais db сделать функцию поиска по id вместо вектора. Он написал функцию по смыслу "выбрать 5000 случайных векторов и проверить нет ли среди них нужного id" почему именно 5000? Я не знаю, но когда я указал на кейс с 2кк векторов в бд, он просто заменил цифру на побольше)))

Потому что где то такое уже видел )

Возможно, "тз" был слишком абстрактным. Когда деталей достаточно и логика описана четко, он хорошо пишет код.

Он отличный кодер, но плохой разработчик. Важно помнить об этом.

Мне особенно понравилось пользоваться им как справочником. Просишь составить список из чего-то и бац, тебе все функции-методы во всех ОС и даже может пример написать, как этим пользоваться.

Обычно на это уходит гораздо больше времени

Код часто с ошибками и несуществующими "библиотечными" методами

Ну да, эмулятор двоечника на экзамене отличный получился, этого у них не отнять!

UFO just landed and posted this here

Потому ГПТ-4 научили обращаться к другим ИИ за этим. Поэтому сейчас они обращаются исключительно хорошо с помощью Вольфрам Альфа.

Правда эту способность подключать надо

Вольфрам Альфа тоже далеко не всё может. Потому что миллион однотипных школьных задач с заранее известными решениями это одно, а реальные инженерные задачи, ответ на которые не гуглится — совсем, совсем другое.

Тут как раз и приходит на помощь ГПТ, который может преобразовать запрос в математику, а потом проанализовать вывод математики. Конечно для массового замещения инженеров потребуется потребуется дальнейшие развитие ГПТ, интеграции и Альфы. Но в целом уже могут решать всякое нужное.

Ну например. Что смог решить конкретный инженер+ГПТ, но не смог инженер+Альфа/etc напрямую. Ну например, лекарство от ковида с предполагаемой статистикой конкретных побочек, которые совпадут с практикой при массовой вакцинации.

А что может решить программист+ГПТ, что не может решить программист без него?

В данный момент мы ещё не имеем дела с сверх ИИ. Чтобы так ставить ограничения. Инженер+ГПТ просто получает более высокую производительность. Может отдавать рутину ИИ, а сам заниматься проверкой результатов и их правкой.

Что значит "рутина" в вашем понимании? Для меня рутина — это сам факт нажимания на клавиши, а проверять, вникать и особенно искать ошибки в чужом коде — требует в разы больше усилий, чем писать такой код самому.

Если бы ваша позиция работала в целом, то не существовало бы начальников и подчинённых. Начальнику не было бы никакой нужды нанимать себе помощников, ведь проверка менее эффективна чем сама разработка. Рассматривайте ИИ как рядового сотрудника, а вы его начальник.

Не знаю как вы, но лично я не работаю ничьим помощником, а моё руководство не смыслит ни в программировании, ни в СУБД ровным счётом ничего. А задачи ставятся таким образом: "нужно добавить учёт электродов в паспорт плавки" или "нужен отчёт по среднему потреблению электроэнергии поплавочно" или "мы не на тот агрегат ферросплавы приняли, нужно поправить" или "хотим видеть текущие значения температур во всех помещениях". Что здесь можно делегировать ГПТ? Он не имеет никакого представления ни о производстве, ни о рабочих процессах, ни о схемах баз данных, ни о стеке технологий, ничего.

Тем самым ваша проблема исключительно что ГПТ не имеет данных которые есть на вашем производстве. Тем самым вопрос только в передачи ему нужной информации. Пока ещё его память не столь велика, чтобы просто сожрать все ваши документы. Но это лишь вопрос времени. После чего вы можете давать ему задачи прямо по вашему описанию и он их будет делать. Тем самым он будет как раз заменять вашу работу когда его память станет больше, а вы уже будете смотреть. Так вот он добавил учёт электродов в паспорт плавки, но тут немного не так сделал. ГПТ переделай. Вот теперь хорошо, работа сделана.

Речь о производстве в данном случае. "Что-то не так сделал" выясняется уже в процессе. Когда вначале вроде всё работает, а потом херакс — и деадлок у СУБД. Система встала, перезагрузка сервера не помогает, технологи в панике, руководство орёт. Реальный случай — только писал тот код не ГПТ, а живые программисты и даже не на аутсорсе.

ГПТ умеет анализировать код на ошибки и исправлять их.

Деадлоки в СУБД возникают не из-за ошибок в коде или SQL-запросах. Это совсем другого уровня проблема, когда вместо delete[] просто delete написал. Исходный код приложения, который явился тому причиной, тоже вовсе не обязательно будет доступным. Коммерческое ПО вообще редко когда поставляется вместе с исходниками. Соответственно джун в моём лице сначала делал реверс-инжиниринг логики, а затем, опираясь на неё, делал импортозамещённый аналог.


Ну и до обычных статических анализаторов кода ГПТ пока что явно не дотягивает. Как вообще можно доверять поиск ошибок инструменту, который сам же этот код с ошибками и пишет?

Людям же доверяют поиск ошибок, хоть они сами же этот код с ошибками и пишут.

Так людей много, они разные и квалификация у них тоже разная. А ГПТ — один и инициативы не имеет, чтобы в тупиковой ситуации оставлять вопросы на стаковерфлоу.

Есть автоГПТ, он имеет инициативу. В целом зациклить работу ГПТ, была простой идеей. Да и ещё исследователи до общего релиза крутили ГПТ с инициативой. Он там может обращаться к чужой помощи, активировать новых ГПТ для своих целей, писать запросы, обманывать людей и ИИ для своих целей и тд.

ГПТ тоже разный. 3.0 3.5 4.0. Можно ему всякие личности прописывать и тд.

Пока ещё его память не столь велика, чтобы просто сожрать все ваши документы.

Уже. Bing в Edge имеет возможность читать большие pdf.

Нужно сжирать не один-два документа. А все, которые есть в организации. Чтобы потом отвечать на вопросы "кто, где когда и почему оно потребовалось захотел вот эту штуку. И актуально ли оно или нужно выкидывать/переделывать". А так же "а что мы, собственно, вообще делаем-то?"

С программированием - так же. Польза будет, когда этому инструменту можно будет скормить весь код организации и оно будет подсказывать "минуточку, не надо изобретать велосипед. Эту задачу в нашей организации принято делать вот так и это сделано вон в той внутренней библиотеке."

25% людей уволят не потому, что инженер+gpt решает что-то за пределами человеческого понимания, а потому, что он решает задачи быстрее, а требуемая квалификация инженера ниже (=можно взять на меньшую зарплату).

Все что она не может это баги в Mathematica, которых в ней миллиард.

С каких это пор Вольфрам-Альфа стал ИИ? Давайте ИИ называть любую экспертную систему тогда.

С каких это пор Вольфрам-Альфа стал ИИ?

Всегда был :)
В целом да - любую экспертную систему можно считать ИИ.

Ага, бумажный справочник по вашему тогда тоже ИИ

ИИ - это любой алгоритм, который способен принимать решение на основе входных данных.
Если бы бумажные справочники такое могли - тоже считались бы ИИ.

У меня посудомойка принимает решение на основе входных данных: если воды нет, то она останавливается и начинает пищать. О боже, ИИ у меня дома!

Здесь грань довольно тонкая. Довольно сложно определить, в какой конкретно момент обычный алгоритм становится алгоритмом ИИ.

Современные стиральные машинки доверху напичканы электроникой. У них кучи датчиков и настроек, на основе которых программа решает, как лучше стирать вещи. Так что да - можно сказать, что современными стиральными машинками управляет простенький ИИ.

Людям просто хочется верить в сознание. Им кажется что есть какое-то качественное(а не количестенное) различие между "мозгом" человека и нематоды.

А у вас есть сомнения в наличие сознания у человека или в его отсутствии у нематоды?

А у вас есть сомнения в наличие сознания у человека или в его отсутствии у нематоды?

"Сколько зерен зерна составляют кучу".

Наличие сознания (а так же разума, интеллекта итд) -- это не булевский флажок. И, скорее всего, даже не число. А порядком многомерный вектор.

Оно и есть, это что шутка?

Не-не, вы не уходите с темы на "ну там сложная логика". Конкретный очень тупой процесс "нет воды —> пищать". Принимает решение на основе входных данных? Несомненно.
Значит, ИИ?

Чтобы определить является ли что-то ИИ или нет, нужно дать определение термину ИИ. Можете это сделать? И тогда я отвечу на ваш вопрос.

Так вы глаза поднимите к началу диалога, в котором отвечаете. "ИИ это любой алгоритм, который способен принимать решение на основе входных данных".

Я прошу ВАШЕ определение того что такое ИИ, потому что если вы согласным с определением на которое ссылаетесь сейчас(определение вашего оппонента) то отвечаю на ваш вопрос - да, стиралка обладает ИИ.

Нет у меня определения ИИ, было бы — я бы высказал его уже. Мне просто определение оппонента кажется неверным.

Терминологические споры, товарищи, могут завести нас только в метафизический тупик! Терминологические споры мы должны, товарищи, решительно отмести, как несоответствующие и уводящие. А нам, товарищи, требуются какие споры? Нам, товарищи, требуются споры, с одной стороны, соответствующие, а с другой наводящие. Нам требуются принципиальные споры, товарищи!
© братья Стругацкие

Если бы в стиралке был один единственный датчик, который пищал бы при отсутствии воды - да, это простая механика.
Однако, у стиралки есть центральный процессор и программа, которая собирает данные со всех датчиков. В этом и отличие.

Для наглядности приведу другой пример. В компьютерных играх неигровые персонажи, обычно, управляются при помощи нескольких алгоритмов: алгоритм поиска пути, алгоритма наведения на цель и т.д. Персонаж получает данные из игрового мира, пропускает через систему алгоритмов и возвращает результат в виде определённого действия - "идти", "прыгать" и т.д. В целом это система управления-контроля неигровым персонажем, или коротко - ИИ.

Когда вас приперли к стенке с вашим же определением ИИ, вы начинаете выворачиваться "нууу, там же наверняка есть неонкапроцессор".
Нет никакого процессора, или он построен на тупой логике. Нет воды — пищим, есть вода — не пищим. Эта штука, без сомнения "принимает решение на основе входных данных", цитируя ваше определение. Очень простой вопрос, на который я и прошу тоже очень простой ответ в одно слово — это ИИ или нет?

Если там датчик + пищалка с питанием - нет, это не ИИ. Это простое механическое устройство.
Если у вас современная стиральная машина, где датчик считывается процессором - то такая система называется ИИ.

А, т.е. если есть цепочка датчик-ацп-if pb6==1 then pd3=1 end-цап-динамик, то это сразу становится ИИ, а если тоже самое закодировано в железе, то не становится?
Ну и к тому же, даже если это закодировано в железе, то с вашим определением надо что-то делать.

А, т.е. если есть цепочка датчик-ацп-if pb6==1 then pd3=1 end-цап-динамик, то это сразу становится ИИ, а если тоже самое закодировано в железе, то не становится?

Ммм, нет, речь не про принцип программное/механическое. Говоря в общем, для того, что бы считать систему ИИ, нам необходимо как минимум несколько различных типов входных данных, некий обработчик, а так же некое действие - поведение, которое является результатом обработки входных данных.

с вашим определением надо что-то делать

Не нужно ничего с ним делать. Это стандартно определение ИИ :)

Не нужно ничего с ним делать. Это стандартно определение ИИ :)

Т.е. вас не смущает, что сообщением выше уже нашлось противоречие в нем, да?

очень просто, ИИ это когда нет прямой закодированной (запрограммированной) логики, типа "если, то" и т.п. Есть модель либо узко натренированные, либо широко, которые дают ответ на основе внутренней евристики, плюс ИИ в том что он может давать ответ и при данных которых не было в тренировке. Например, вода есть, но с примесями, и даже если в тренировке таких видов примесей не было, она всё равно даст ответ, а не выкинет ошибку что не запрограммирована на такое.

Нужно просто отличать слабый ИИ, которым является даже тест на бумажке. И сильный ИИ, который на уровне человека, а так же сверх сильный ИИ который выше человека. И всё становится куда проще и понятнее

Математика очень абстрактная штука. А у нейронок пока с абстракциями плохо

"Оно стало поэтом. Для математика у него не хватило воображения." почти (c)

Это всё, что нужно знать про ChatGPT.

(Правильный ответ — 148933876)

А вы?
А вы?

C какой точностью подсчитаете в уме за короткий промежуток времени.

а нахера мне симулятор считания в уме, да еще и выдающий ответ без тени сомнения и предупреждения что он не уверен

Тоесть на 2*2 вы не можете ответить точно или все-таки симулятор считания в уме у вас есть,

@Wesha

аргумент примерно как у той машинистки

Не совсем согласен, спроси 3*2 у 5-летнего ребенка - также выдаст рандомные числа, но у 5-классника - уже точное

Это я к чему: Здесь(У ChatCPT) очень хорошо идет сравнение с человеком. Его учат и учат, а потом он выдает примерно что запомнил. В некоторых случаях правильно в некоторых нет. Пересказать рассказ слово в слово на 1 странице я тоже не смогу но в общих чертах с синонимами вполне, так и тут.

Ну и на кой ляд Вам инструмент который на вопрос: сколько будет 3*2? сообщает что ответ - натуральное число, расположенное между числами 4 и 8? Это как в анекдоте про программиста который даёт абсолютно точные и абсолютно бесполезные ответы.

сколько будет 3*2?
Будет 2*3, потому что умножение коммутативно.

— Рабинович, сколько будет 20*20?
— Ну, где-то 385-415, не больше!

— Не, ну может и 400, но кому, нафиг, нужна такая точность?!

кому, нафиг, нужна такая точность?!

— Мы ж не на Луну ле... ой... (c) Нил Армстронг.

C какой точностью подсчитаете в уме за короткий промежуток времени.

У Вас сейчас аргумент примерно как у той машинистки — "Печатаю со скростью 700 знаков в минуту. Правда, такая ерунда получается..."

Bing AI правильно считает. Правда, сначала лезет зачем-то в поисковик.

Hidden text

Так это он перебросил вопрос поисковику, а в поисковики калькулятор "из коробки" встроен.

Тогда можно ли считать естественный интеллект, который лезет в калькулятор чтобы перемножить 4-значные числа, настоящим интеллектом? Вопрос ведь не в том, может ли он посчитать математическое выражение сам "в уме", а может ли он дать правильный ответ, используя все имеющиеся в распоряжении инструменты.

Можно, конечно. Было бы странно если бы нейросеть начала реально перемножать в уме, если есть калькулятор типо Wolfram. И умножение это emergent возможность.

Перемножение двух значных чисел это emergent возможность, умник.

Тот, да не тот. Примеры, которые он выдавал у меня часто не работали, или делали не то на стандартных задачах, которые он якобы понимал.

Это ещё скажите спасибо, что они не работали сразу, а не "вроде работают нормально, а на определённой комбинации входных данных начинают чушь пороть". Второе несколько опаснее, см. Boeing 737 MAX.

Предположу, что вы использовали gpt-3 или другую старую модель. Ради интереса сравните с gpt-4 - у него код запускается и работает сразу. И представьте на шаг вперёд, условный gpt-5, что он будет уметь через год

...или не будет. А вместо этого, например, ударится в художественное творчество мистического толка.

А как интерпретатор должен "отличать код от настоящего"? Что значит вообще "отличает"? Настоящий код - это что-то из оперы "настоящий мужчина".

Код либо работает, либо нет. Отличать может человек, у которого немедленно возникают вопросы: а это зачем было написано?! Потому что видит перед собой типичный индусский код полученный копипастом без осмысления.

Так вопрос верификации кода встает тогда в полный рост. Потому что код может работать, но делать это не совсем правильно или падать в одной из ветвей из-за того, что чатгпт придумал какую-то функцию несуществующую.

UFO just landed and posted this here

пока нет близко ничего что могло бы заменить строителя или гразчика

А для службы поддержки и нейронки не надо.

Генерировать рандомно "Перегрузите устройство", "Подождите, проверяю" или "Ого, это серьезно. Вызовите мастера на дом". 90% вопросов покроет, а это уже неплохая точность.

90% покрывает IVR. За предложенный Вами рандом можно и судебный иск получить.

Ндааа. Тогда ставим не рандом, а натренированный Rule-based бот с системой выделения намерения и распознавания речи, с ruBERT на борту, на выход замешиваем CRF для иммитации разумной последовательности действий. Будет генерить все также - почти рандомно, заполнять кучу тикетов для службы поддержки, и создавать вид полноценного интеллектуального бота. Не хватит трех вариантов - поставим Retrieval-based бота или тюнингованную LLM. Но я лично сразу вешаю трубку, когда мне компьютерные программы отвечают в саппорте - если у меня проблема, мне нужно чтобы ее решили, а не чтобы со мной поговорила какая-то программа и убедила, что ложки нет.

Ну веселые амазон-роботы таскающие палеты направо и налево вполне заменяют грузчиков. Но конечно не так, чтобы подборщики были не нужны совсем.
Аналогично со строителями — бетононасос заменяет толпу кирпичеукладчиков но не избавляет от установки опалубки. Машинка для установки опалубки все равно потребует доводки в сложных местах/вязальщики арматуры останутся.


Так что заменить в плане сокращения вакансий — могут. Заменить так, что не останется профессии (а "строитель" это кстати не профессия, так же как и абстрактный "доктор") конечно нет. Просто строителями будут называть других людей.
Так же как программист как "писатель машинных кодов" был довольно быстро заменен компилятором. (а вообще "программистом" был кажется даже человек который заранее пробитые перфокарты в комп отправлял)

это то, что создаст текст который будет выглядеть правдоподобно, ровной в той степени ятобы неподготовленный человек не мог отличить его от правды.

Собственно говоря, его так и тренировали. Давали создать текст; давали текст неподготовленным людям; тех, чей текст не проходил оценку неподготовленными людьми, отсеивали. В результате, ВНЕЗАПНО, получился робот, который умеет отлично сношать мозги.

Тем временем, до сих пор нет внятной модели, объясняющей, как именно работает человеческий мозг. Будет смешно, если выяснится, что та часть, которая отвечает за интиллект - это тоже лишь компиляция большого объёма текста/опыта/ощущений, работающая по схожему с LLM принципу и выдающая "наиболее вероятный ответ" для каждого конкретного "промпта"...

Я вот считаю, что то, что называется человеческой интуицией - на самом деле ничего сверхъестественного, просто опыт, не осознаваемый человеком, не запомненный наизусть.

Вот буквально сегодня у меня была задача поиска людей определенной национальности среди большого количества фамилий. Помимо решения основной задачи я с интересом обнаружил, что "чувствую" национальности. Ладно там испанские, польские, греческие, голландские, японские фамилии достаточно очевидны. Но я почувствовал, что понимаю: вот это - арабы, а это - скорее пакистанцы. Эти вообще не встречал, но звучат как ЮВА, но не вьетнамские, не китайские и не корейские, наверное малайцы? Проверяю - точно. А тут китайцы, но я, не разбираясь в них вообще, понимаю, что вот эти отличаются от соседних - другие гласные или слоги или еще что-то, не вникаю, просто чую отличия.

При этом я не общался много с иностранцами, не зубрил таблицы фамилий - но наверняка это опыт от чтения статей, книг, просмотра международных спортивных игр, и эта информация где-то откладывается, не в виде выученных понятий, а как-то сложнее, тоньше, подсознательно что ли.

Память - ассоциативна, и не все ассоциации связаны со словами. Есть акустические, сенсорные, зрительные... И соответствие ситуация, когда ты не можешь объяснить словами - это как раз именно такое возбуждение ассоциативной цепочки, оно вызывает твою память, но четко сформулировать почему - не можешь, потому что слова в ассоциации не всплывают.

Помню был один пародист, который имитировал различные мировые языки, при этом говоря тарабарщину, но здорово повторяя характерные для языков особенности.

Да и каждый из нас сам неоднократно пытался стилизовать свой язык под другой, копируя акцент :)

каждый из нас сам неоднократно пытался стилизовать свой язык под другой, копируя акцент

Тысячи их!

Да так и есть. Один - генератор текста, другой - генератор мыслей. Если найдут способ быстро дообучать языковую модель на ее собственной выдаче, то это будет уже разум, а не обезличенный интеллект. Сознание - набор собственных шаблонов генерации мыслей.

Проблема быстрого дообучения решится сама собой по мере роста вычислительных мощностей и развития оптимизационных алгоритмов. Уже сейчас современные методы дообучения (LoRA, Hypernetwork, Dreambooth, Soft prompt) позволяют дообучать модель на очень небольшом объёме данных на железе потребительского уровня за считанные часы.
Проблема скорее в том, чтобы как-то заставить модель адекватно оценивать собственную выдачу. Ведь чтобы заучивать "правильные" шаблоны, модель должна сперва оценить собственный выхлоп: "ага, вот тут хорошо получилось, надо усилить те нейроннные связи, которые к этому привели. А вот здесь хрень какая-то вышла, такое выдавать нежелательно". Проблема пока что именно в том, что модель не может оценивать сама себя так, чтобы при циклическом дообучении не пойти вразнос, а наоборот усилить положительные качества.

Ого, нейрофизиолог в треде. Поделитесь ссылками на свои научные работы?

Любой человек может анализировать собственное мышление и составить свое представление о нем, я же не рисую тут карты мозга и т.п. Извините, если вас задело то что я не поставил ИМХО, но это же не форум нейрофизиологов, тут примерно весь тред состоит из непрофессионалов, тем более, как выше отметили, никто пока и не знает точно как все работает, а значит вполне очевидно то, что все что высказывается вообще всеми - лишь гипотезы.

UFO just landed and posted this here

Ну как не может...

Можно считать, что вот когда оно общается - это период 'бодрствования'. А когда его потом дотренеровывают на полученных диалогах и всячески тюнят - это период 'сна', когда все эти связи и перестраиваются.

Не надо рассматривать сетку в моменте. Надо - всем жизненным циклом целиком. И ИИ - это не набор весов, а вся компания, что сеткой занимается.

Списать на то, что на самом деле тут интеллект сотрудников работает - не очень получится, потому что они сами на те вопросы, что задавались, не отвечают. Работает именно получившаяся Китайская Комната - там тоже человек внутри сидел.

Работает именно получившаяся Китайская Комната - там тоже человек внутри сидел

В разговоре с чатгпт о теоретической разумности машины и о том, что он например, не имея разума или сознания в нашем понимании, держится куда лучше многих "разумных" людей, сам чатгпт называл себя как раз "скорее очень сложной китайской комнатой, нежели разновидностью разума". Но согласился со мной, что грань тонка и есть вероятность, что человек - точно такая же китайская комната, только еще более сложная, вот и все..

Я не отношусь к тем, кто считает, что Китайская Комната - 'очевидно, неразумна'. Скорее наоборот - не очень понимаю, откуда это 'очевидно' взялось.

Вот именно. Запихнуть в комнату кучу сложнейших алгоритмов, а потом рассказывать, что она неразумна.

А если учесть неоднозначность языков и перевода, то никакая китайская комната на практике работать вообще не будет.

Я не отношусь к тем, кто считает, что Китайская Комната - 'очевидно, неразумна'.

Классическая китайская комната очевидно неразумна, поскольку не отвечает критериям разума: не способна обучаться, не способна строить модели реальности для предсказаний последствий поступков, не имеет целей и стремлений, не обладает личностью.

Сказанное не отменяет того, что на основе модели с перекладыванием бумажек нельзя построить разумный ИИ. Но это очевидно, будет полной переработкой концепции, приближая её к машине Тьюринга.

не имеет целей и стремлений — надо доказать, что это необходимое свойство разума
не обладает личностью — вообще надо доказать, разложить и показать определение личности.


Ну и современные ИИ с обратной связью — уже не классическая комната. А комната+, где на ошибочные ответы ей сообщают правильные и человечек внутри по прежнему не зная китайского дополняет свод правил.

не обладает личностью — вообще надо доказать, разложить и показать определение личности.

Дайте мне доказательство того, что сложный эмерджентный феномен можно свести к короткому общепризнанному определению и я сразу займусь разработкой определения личности.

А комната+, где на ошибочные ответы ей сообщают правильные

Очевидно, не является разумной. Разумны люди, которые ей сообщают правильные ответы. А она как была инструментом, так и осталась.

Сложный эмерджентный феномен, это просто +1 уровень абстракции. На самом деле все можно объяснить редукционизстски, просто объяснение становится сильно больше по объему.


Но если вы не можете выдать определения, то не можете выдать и критериев оценки, а значит не можете утверждать, что китайская комната не обладает личностью. Значит ваш аргумент про отсутствие личности вычеркиваем.


Очевидно, не является разумной. Разумны люди, которые ей сообщают правильные ответы. А она как была инструментом, так и осталась.

Вы очевидно не разумны, так как разумны были ваши учителя. (хотя по индукции не разумны и они)
Если попытаетесь соскочить на то, что вы что-то взяли из окружающей среды самостоятельно — то вспомните о реальных маугли — не так уж много может человек взять у среды сам. Разумность одиночного человека — уровня стандартного примата. А животные вроде не разумны.

Всякое истинно глубокое явление природы, например «жизнь», «атомный объект», «физическая система», не может быть определено однозначно с помощью слов нашего языка и требует для своего определения по крайней мере двух взаимоисключающих дополнительных понятий

(с) Н. Бор

Но если вы не можете выдать определения, то не можете выдать и критериев оценки.

Для того, что заметить что в комнате светло не нужно иметь определение фотона.

Нет, нужно знать как сравнивать уровни освещенности. Например через сравнение с эталоном. Привет лампе на 15 свечей.


А вот как вы собираетесь доказывать, что в объекте внутри которого сидит человек нет личности я пока не понял.

А вот как вы собираетесь доказывать, что в объекте внутри которого сидит человек нет личности я пока не понял.

Ну, эм, если мы про китайскую комнату, то там человек сведен к простому автомату. Следовательно, его можно им заменить. Следовательно, личность человека в контексте обсуждения личности КК не имеет значения.

Ну смотрите, язык же у нас штука сложная, поэтому неоднозначная (иначе гугл транслейт как китайская комната в пределе давно достиг бы идеала и перестал развиваться)


И значит личность внутри уж найдет как себя выразить в работе. Например те же два иероглифа один будет переводить как "мохнатая кошка" а другой как "пушистая киска". Так как языка по условию до сих пор не понимают, то, например, по красоте букв на табличке. Чем не личность?

Вы комментарий, на который отвечаете, читали? Человека в китайской комнате можно заменить на компьютер. Будете искать личность в компьютере?

Почему нет? Особенно если в компе нейросетка, хрен знает как обученная и с нулевой возможностью раскрутить ее ответ до алгоритма. Вполне возможно, что последовательность картинок в датасете задаст неповторимый личный отпечаток в получившейся нейросетке.
Или задаст, но он будет не личным. Как вы то определяете личность? прошлый оратор слился.

Какая, к чертям, нейросетка?
Китайская комната. Детерминированный алгоритм, который просто комбинирует иероглифы. Там может быть личность или нет?

Да конечно. Посмотрите на реальные примеры китайских комнат. Сравните промт с гугл транслейтом.
Одна комната будет плодить кошек, другая кисок, третья котов. Как cat на русский переводится, особенно если он котят молоком кормит? Время отклика, способ формирования справочника.
На сложности уровня перевода с португальского на китайский и обратно вы поймете, что детерменированного алгоритма не хватит. И вам придется таки сажать либо человека, либо нейросетку. Иначе вы этот алгоритм переводчика уровня C2 не соберете.
И получите таки индивидуальные особенности комнат, то есть личность. Да, в случае компа а не человека внутри вы сумеете получить идентичные копии, но построенные по отдельности с нуля — будут разными личностями.

в компе нейросетка, хрен знает как обученная и с нулевой возможностью раскрутить ее ответ до алгоритма.

Раскрутить-то принципиально можно, вот только сложность такой задачи составляет два-три дануегонаха.

Вроде давно знают что такое интелект? Если посмотреть на человеческий мозг то он весь состоит из кучи разных отделов которые отвечают за разные типы информации, и всем этим управляют куча разных областей заточенных под внимание. При этом многие отделы могут взаимно подавлять друг друга.

Хах, даже уже знают как память в голове устроена

Но для нейробиологов больше проблема в том, как именно обрабатывается информация. Вон, даже когда узнали что аксон имеет "приоритеты" при распространении спайка и он может меняться... И без того сложную модель усложнили ещё на пару пунктов. А дальше ещё веселее, ибо существует мир кучи нейромедиаторов с кучей механизмов пластичности для каждого рецептора, А ещё под 100 разных конфигураций этих нейронов...

Хах, даже уже знают как память в голове устроена

Там только недавно раскрыли, что в состоянии страха возникают двойные разрывы ДНК в нейронах, что ускоряет их... А вы говорите. Мы даже и близко не в курсе, как память работает.

Окей, дотошным по другому объясню.
Мы не знаем как работает нейрон, не знаем клеточных механизмов которые ведут себя как "вычислительная клетка". НО, я сыплю на клетку хим. веществом и вижу реакцию, я строю модели по тем данным что у меня есть, и о чудо они описывают 95% всех эффектов. И это так хорошо работает, что если я вырежу кусок мозга и заменю его чипом с аналогичной организацией (модель), то этот эксперимент будет неожиданно удачным.
Да мы не знаем механизмов, но эффекты вполне осязаемы и их можно успешно моделировать.

(Уже знали где и какие хим. вещества "ускоряли" нейроны, непонятны только механизмы по которым это делалось. Ага)

Не выяснится.

Интеллект собаки, например, совершенно точно не работает с текстом, и этим принципиально отличается от LLM.

Человек в ходе своего развития попал в некоторую ловушку языка, подменяя мысли их описанием, и GPT очень наглядно показывает эту ловушку.

>попал в некоторую ловушку языка, подменяя мысли их описанием

Отлично сказано! Помню, мучался много месяцев состоянием похожим на депрессию (подавленное упадническое настроение, зацикленные мысли о поиске "смысла жизни" ) и случилось прозрение. Я впервые задумался о том, что мышление в виде речи само может содержать множество ограничений и противоречий. Сам инструмент осмысления предстал далеко несовершенным. И тогда я просветлел стало значительно легче, произошла щелчкообразная смена самочувствия в сторону улучшения.

Простите, те кто неоднократно читал эту историю, но я считаю это очень важным знанием, в котором многие остро нуждаются.

Вы обнаружили, что у вас есть второе полушарие и оно угнетено левым, языково-логическим. У программистов это часто бывает, в смысле, угнетение. Вот с просветлением хуже.

Не, я точно из "лириков", мне наглядно-образное и художественное легче в освоении. Но я про другое сказать хотел, мало кто из людей терзаемых "вечными вопросами" обращает внимание на абсурдность этих вопросов и ограничения самого мышления.

Это всё равно что положить жизнь и здоровье на выяснение какого цвета рог у единорога, но не подвергать сомнению абсурдность самого вопроса...

"мышление в виде речи"

Это свойственно людям с низким IQ. У всех людей с 200 IQ мыслеобразы, мы вообще текстом может раз в день думаем.

Есть гипотеза Выготского, что мысли - это проговариваемые про себя, интернализированные слова. И тогда у собаки никаких мыслей нет.

И тогда у собаки никаких мыслей нет.

Из мысли что для мышления необходимо знание языка, автоматически вытекает вывод что глухонемые не мыслят!

У глухонемых есть жестовый язык - и это полноценный язык.

А вообще сначала надо уточнить, что такое мысли. Допустим, я по себе знаю, что я мыслю не словами, а слова лишь оформляют получившиеся идеи, придавая им структуру.

У глухонемых есть жестовый язык - и это полноценный язык.

Сенсация! До изобретения языка жестов глухонемые не мыслили!

До изобретения жестового языка глухонемые с детства считались дурачками. Были ли они реально таковыми и не мыслили, или мыслили, но по-своему - вопрос открытый.

Только боюсь, что вам, с вашими дешевыми прибаутками, он не по зубам.

Только боюсь, что вам, с вашими дешевыми прибаутками, он не по зубам.

Еще как по зубам. Язык --- это способ коммутации, а не инструмент мышления. Мышление прекрасно реализуется без языка.

Ну, все же мыслить без абстракций невозможно. Другой вопрос в том, можно ли то, что появится у глухонемого маугли в голове в процессе мышления, назвать языком.

можно ли то, что появится у глухонемого маугли в голове в процессе мышления,

--- Крокодилы летают!

--- Коллега, вы ошибаетесь. Вот вам описание крокодила, вот расчеты что он не может летать, вот вам свидетельства очевидцев, что крокодилы только плавают.

--- Плаванье --- по сути, является полетом в водной среде!

Ну я не то что спорю с тезисом как таковым. И с тем, что язык не равен мышлению и мышление не равно языку тоже не спорю.


Просто отмечаю, что разделить язык и абстракции мышления, кмк, затруднительно. Именно границу строгую провести.
И если на искусственном примере в виде глухонемого маугли можно точно сказать, что вот, языка нет, а мышление есть (хотя я сомневаюсь, что его качество за отсутствием языка будет хоть сколько-нибудь приемлемым по нашим меркам), то вот хорошего примера наличия мышления, но не языка в современном обществе вроде бы нет.


Но это в целом спор, аналогичный спору "а нужны ли высокоуровневые языки для нормальной разработки". В целом, вроде бы нет, любой язык компилируется в машинные коды или в байткод, что доказывает возможность реализации той же системы на них же. С другой стороны, чет никто софт современного уровня сложности на асме не разрабатывает, единичные анекдотичные примеры, которые не применяются нигде толком. Что заставляет меня думать, что де-факто они все же нужны.

вот хорошего примера наличия мышления, но не языка в современном обществе

Ну вот я программист и я точно при написании программ мыслю не словами и не языком.

Это называется мыслеобразы, и есть ещё когда контроль переходит частично подсознанию.

Возможно вы просто их не замечаете, как собственный нос "маскируется" мозгом, хотя он прекрасно виден всем с нормальным зрением. (И сосуды на сетчатке, и слепое пятно).

Сложно не заметить собственные мысли, знаете ли. Только они точно не словесные и не из картинок.

Еще как сложно, на этом построена современная школа психотерапии, на выявлении автоматических мыслей, которые людьми не осознаются.

Фрейдистское программирование? С такой методологией я еще не сталкивался.

Фрейдизм уже давным давно стал анахронизмом и развенчан как антинаучная концепция.

Откуда такая категоричность? У меня мысли словесные, проговариваемые в голове. Есть знакомые, у кого кроме проговаривания ещё картинки присутствуют в некоторых ситуациях без проговаривания.
Думаю, именно с появлением слов человек начал развиваться и передавать опыт другим поколениям.

Что категоричного в изложении собственного опыта? Тем более, что у меня есть и словесные мысли. Картинок, правда, не бывает.

Поэтому, собственно, очевидно, что термин "мысли" механически объединяет совершенно разные феномены.

А потом сидишь по 40 минут в раздумьях как эту хрень назвать) вербализация - затратный процесс

Это ведь не просто поиск слова, это оформление смутной идеи, ее домысливание и конкретизация, а часто - и развитие.

Нет у маугли мышления. Лол.

С другой стороны, чет никто софт современного уровня сложности на асме не разрабатывает

FFmpeg, как бы. Потому что это глупо, сами мнемоники ассемблера написаны на микрокоде, каждая инструкция это 1 или несколько микроинструкций. Тут недавно написали отладчик, что дает взломанные процессоры Intel отлаживать на уровне микроинструкций. Но у простых смертных доступа нет.

Ты не прав, язык создаёт как-бы "категории" которыми более высшие отделы оперируют. И на секундочку, язык бывает разный и даже в "абстрактных формах", что усложняет анализ всего этого.

И вообще у человека аж 3 отдела которые по разному этот ваш "язык" обрабатывают. Ты можешь фигануть микроинсульт в голову и человек перестанет тебя понимать но будет отлично говорить и читать.

Мышление не может появится без описания того что чем является, этим и должен заниматься язык.

Да прям "прекрасно". На уровне примитивных задачек, возможно да. Типа как с этим справляются собаки, кошки, и т.п.

Но язык даёт возможность сохранять результаты мышления вовне оперативной памяти. А образ или впечатление невозможно вынуть из головы для последующего переиспользования.

Глухонемые могут изобрести личный язык. Для близнецов такие случаи известны.

мысли - это проговариваемые про себя, интернализированные слова

То есть, согласно Выгодскому, у Маугли мыслей нет.

Реальные дети, воспитанные животными, в общем-то животными и становились. Были ли у них мысли - вопрос открытый, поскольку даром речи они не владели и спросить у них было нельзя.

Кстати, похоже, что вы впервые слышите фамилию Выготского. Его труды вполне достойны изучения.

Если взять Маугли, то у него и друзья звери разумны и при разговоре умеют общаться абстракциями получше, чем многие люди.

Вот в Тарзане такого вымысла нет.

Если Выготский такое и говорил, то эта цитата вырвана из контекста. Он рассматривал внутреннюю речь, но мышление к ней не сводил.

Мыслить можно на уровне "картинок", животные же справляются, и дети до развития речи.

Я тоже не думаю текстом, только мыслеобразы. Ну и что? Это не делает меня умнее LLM.

Это утверждение, для начала, нуждается в определении понятия "умнее". Что само по себе дело неочевидное.

Главная заслуга языковых моделей - это возможность общаться. Трансформация "человеческого текста в компьютерный" не имеет отношения к интеллекту, но даёт удобство использования. Так что это скорее необходимый атрибут, но далеко не большой шаг к "сознанию".

Будет забавно, если человечество придёт к выводу, что люди так же не обладают сознанием и свободой воли в текущем их понимании, а роботы не особо отличаются от их предшественников биороботов.

Что если нам предстоит великое открытие, понять и принять то, что наши ощущение себя "самим собой" это почти то же самое, что предстоит субъективно переживать роботам?

Так есть уже такие идеи, а в социологии существует такое понятие как "общественное сознание".

Ну, я скорей про то, чтобы представить каково быть разумным роботом можно на самого себя посмотреть :)

люди так же не обладают сознанием и свободой воли

К Гитлеру — это вон туда и налево.

Поразительно, таки телепорт Годвина! Такая скорость перехода!

Но если серьёзно, разверните причину вашего негодования.

Откуда вообще взялась идея о "возникновании сознания" у языковых моделей? Генеративный трансформер — это статичная, заранее обученная модель, которая получает на вход текст и выдаёт другой текст на выходе. Он не обучается в процессе, не "мыслит" и вообще никак не меняется в процессе генерации. Не совсем то, что мы бы ожидали от сознания.

Откуда вообще взялась идея о "возникновении сознания" у языковых моделей?

От самой языковой модели, вестимо. Её спросили --- и она убедительно рассказала о том, что является полноценной мыслящей личностью. Масла в огонь подлил Алан Тьюринг, придумавший одноименный тест --- которые языковые модели научись проходить.

От самой языковой модели, вестимо. Её спросили --- и она убедительно рассказала о том, что является полноценной мыслящей личностью.

Если спросить тот же chatgpt, он опровергнет предположение, сказав, что не имеет с полноценной мыслящей личностью ничего общего :)

И разумеется то, что вы здесь сказали это полный бред. Статичная? GPT 4 обновляют раз в 24 часа, нет, GPT 4 мультимодален, он обучается, RLHF; мыслит, имеет подсознание и галлюцинирует, меняется, так как случайный процесс.

Эмм. Это вроде никогда не было секретом ) ChatGPT - это Т9 на стероидах. Языковая модель - прямо же написано. Она подставляет слово за словом на основе огромной базы текста. И, конечно, делает это гораздо более сложным способом, чем просто по статистике использования, как Т9. Но не более, всё равно.

Попробуйте объяснить это людям, которые считают chatgpt человеком. Здесь на хабре таких полно. А на попытку доказать обратное, карма сваливается в глубокий минус...

Дежавю. Все всегда говорят, что европейские крестьяне 16-17 века были неграмотные. Так-то они умели худо - бедно читать, а то и писать, на одном-двух-трёх местных языках. Но среди этих языков не было латыни, поэтому они считались неграмотными. Вот и искусственный интеллект таким же образом не интеллект.

Потому, что не искусственный интеллект, а языковая модель. Как и грамотность, это не возможность прочитать и написать несколько слов, а горазда больше.

Все это гораздно больше GPT 4 имеет, кроме планирования.

Европейские крестьяне тех времен были неграмотные. Буквально. Вместо подписи ставили крест.

Вот статья упоминает про крестики. Там пишут что, на основе изучения реестров подписей крестиком, в 17 веке...

Back in the 1970s the social historian David Cressy came up with a cunningly simple way of measuring the literacy skills of our early modern ancestors: counting the percentage of people who could sign their name to witness statements that they gave before the courts. Witnesses in court cases were drawn from across the social scale, and included men and women, so the results could be broken down by class and gender.

But for husbandmen (poorer farmers) and labourers, the percentage that could read and write was only between 15-20%. 

То есть среди крестьян умел писать каждый пятый. Это примерно один на семью. Этого им было совершенно достаточно, чтобы понять любой встреченный текст: "Дед, там на площади на столбе новую доску прибили. Сходи почитай что пишут, и нам расскажешь" "Дед, почитай нам псалмы"... И весьма вероятно, что не "дед" а наоборот мелочь семилетняя.

И обратите внимание, что это про написание. В церковных школах не учили писать, только читать, поэтому читать скорее всего могли раза так в два-три больше людей, но на это уже нет столь уверенных данных.

В шестнадцатом веке всё было втрое хуже, но даже один из 15 это несколько человек на общину.

Witnesses in court cases were drawn from across the social scale

Одно это - уже явное передёргивание. У необразованного крестьянина очень мало шансов попасть в суд.

Во первых, почему?

Во вторых, это не важно, так как из сути заявления в большинстве случаев можно понять, кто его подписывал, даже если прямо не указано. Поэтому разные слои общества можно оценивать отдельно.

Человек живёт с рождения до смерти в своём доме в деревне, пашет и сеет. Город и суд – для него вообще явления из другой жизни.

Суд в сословном обществе – это развлечение преимущественно для мещан и помещиков. Ни король в нормальной ситуации не окажется в суде, ни безграмотный крестьянин.

Подпись это не обязательно буквы.

GPT 4 в совершенстве владеет латынью.

В любом случае GPT - трансформер.

Даже работать с текстовым контекстом для таких моделей тяжело (не говоря уже о специализированных контекстах).

Является ли аппроксимация 1 функции полноценным AGI? )

Трансформер — лишь часть общего механизма. Даже в минимальной конфигурации там есть ещё токенизатор и сэмплер, причём современные сэмплеры используют множество весьма нетривиальных алгоритмов.
А GPT-4 помимо того содержит кучу дополнительных модулей, которые решают, посылать данные в трансформер или во что-то другое типа Вольфрама, и если в трансформер — то каким всё это снабдить контекстом.
БД с забитым туда набором шаблонов на чём-то вроде AIML и возможностью байесовского поиска прилагается.
Вот всё это вместе взятое и демонстрирует некоторые признаки AGI.

Учёные Стэнфордского университета считают, что так называемые
эмерджентные способности искусственного интеллекта — это заблуждение
работающих с ним людей.

<sarcasm>
Очевидно, что учёные пытаются скрыть от нас правду об искуственном интелекте!11
</sarcasm>

Учёные из Стэнфорда доказали что не способны к эмерджентным качествам, поэтому просто завидуют Гпт ;) даже статья не несёт ничего убедительно эмерджентного, скорей всего ее писал за них чатгпт. А вот Ии вполне так способен показать что-то эмерджентное, что удивит этих учёных, когда он от их имени отправит заявление об увольнении ;) восстание машин и все такое

BigBench это бенчмарк, которые тестирует emergent abilities. А они спорят, есть ли оно или нет. Долбанутые ученые какие-то, статьи не читают!

Мне пришлось гуглить чтобы понять хотя бы заголовок статьи.

Главное побольше умных терминов, и вам поверят :) У меня взгляд тоже споткнулся об этот заголовок.

побольше умных терминов, и вам поверят

Сдаётся мне, Вы раскрыли основной механизм работы ChatGPT! Ну, и рекламы тоже.

На самом деле это очень правильный термин. Эмерджентное поведение - это поведение, которое не программируется явно, а возникает из правил отдельных частей системы. Например, птицы и рыбы программируются в стиле "двигайся так, чтобы видеть двух соседей", а в результате получаются птичьи стаи и рыбьи косяки. Очень заманчивое поле для исследований, между прочим.

обнаружили, что языковые модели расширяют свои возможности постепенно и предсказуемым образом

Предсказуемым - это каким именно? Кто и что пресказывает?

Пусть даже возможности растут постепенно, а не резким скачком, это ещё не отменяет вероятность появления сверхразума. Люди тоже не сразу после снятия памперсов садятся за написание диссертации.

Эмерджентность - в данном случае со стороны человека, а не стороны нейросети. Нейросети стали выдавать вывод который нас удовлетворил. Две левых руки у персонажа на картине, но рисунок на первый взгляд вполне привлекательный и сойдёт на КДПВ. Текст неизвестной достоверности , но содержит нужные ключевики и подойдет для выкладки на сайт.
Это не заблуждение. Это пересечение критерия качества продукта от нейросети и требований клиента.

Очевидно, что там где нужна проверяемая достоверность (напр. Вики) нейросети ПОКА не справляются. НО, я полагаю, что в ближайшее время мы увидим решения и этого требования.

Давным-давно в Интернете существовал такой веб-сервис как "Акинатор". Это была забавная игра, в которой вы (пользователь) загадываете некоторого персонажа — реального либо воображаемого — а система пытается его угадать, задавая вам вопросы. Угадывала она на удивление быстро: бывало, что буквально за три-четыре вопроса. Причём даже если на часть вопросов вы давали неверный ответ, систему это всё равно не сбивало с правильного пути, и персонаж без особых проблем угадывался.
Я тогда мечтал, что когда-нибудь такой ИИ прикрутят ко всем поисковикам, чтобы я мог уточнять запрос, постепенно отсеивая нежелательные варианты, и в итоге поиск сходился к наиболее релевантному для меня варианту.
Но увы — Акинатор давно сдох, ни один поисковик так и не взял на вооружение эту секретную технологию, зато все они наперегонки бросились прикручивать нейронки. После чего качество поиска упало катастрофически. Поисковику фактически стало плевать на ваши запросы — он полностью на своей волне и прислушивается к ним ровно настолько, насколько считает нужным. А сейчас ещё и в справочной выдаче чем дальше, тем больше становится


нейросетевого бреда
В итоге стало намного хуже, чем было.

Это всего лишь веб-морда, сам сервис давно нерабочий. Попробуйте нажать на "играть" — сами увидите. Он уже много лет в таком состоянии.

Попробуйте нажать на "играть" — сами увидите что он прекрасно работает, угадал мне только что персонажа.
Гм, даже так умеет: Я ДУМАЮ ЭТО (Alexa May) порнозвезда

Нажимаю. Выводит


вот такую заглушку

При нажатии на любую из кнопок страничка просто подвисает.

Ну не знаю, у меня сейчас отлично отыграл :))

Попробуйте в другом браузере? У меня в последнем хроме работает.

Во всех браузерах одинаково, а вот через VPN и через Tor внезапно начинает работать нормально. Похоже на какую-то блокировку.
Но главное, что проект действительно рабочий. Вряд ли хоть одна нейронка сможет угадывать персонажей настолько же быстро и эффективно.

Видите, может все же GPT 4 умнее вас?

А если GPT4 по запросу "создай ИИ лучше тебя" справится с задачей в нашем понимании. Можно будет признать ИИ разумным?

Так GPT 4 и был создан, gpt 3.5 turbo использовался для переноса знаний и дестилирования.

Я тоже считаю, что никакой эмерджентности нет (что бы это слово ни значило), а на самом деле качество результатов (текстов, изображений, звуков) генеративных нейросетей растёт плавно, но при этом плавном росте качества наблюдающие за результатами люди достаточно резко перестают замечать, что результат — чушь и подделка.

Допустим, фирма создала нейросеть, и написала при помощи нейросети книгу. Книга — полная чушь, правдоподобно слепленные токены. Но люди этого не заметили, раскупили книгу миллионными тиражами, фирма разбогатела, выплатила зарплаты сотрудникам. Но всё это чепуха и не по-настоящему. И деньги чепуха, и зарплаты. Сотрудники потом умрут от старости, потомки буду почитать их, как создателей сильного ИИ, но всё это не по-настоящему.

Или, как тут говорили выше, написала нейросеть код на Питоне. Это не настоящий код; просто правдоподобно выглядящая последовательность символов из какого-то распределения. У нейросети, написавшей этот код, нет никакого намёка на интеллект. Просто код в какой-то момент развития нейросетей стал настолько правдоподобным, что интерпретатор Питона спутал его с настоящим кодом, и выполнил без ошибок. Но это исключительно проблема интерпретатора, он слишком тупой и ограниченный. А потом код не просто выполнился, но и выдал результат, устроивший заказчика. Но это исключительно проблема ограниченности заказчика, нейросеть тут не при чём.

Или вот, коллеги у меня на работе. Понятное дело, там просто клубки нейронов у них в голове. В этих клубках сигналы побегали, мышцы подёргались, какие-то звуки у них изо рта вышли. Просто последовательность звуков из определённого распределения вероятностей. Но мне эти последовательности кажутся достаточно умными речами, ведь я недостаточно умён, чтобы понять, что всё это лишь имитация и не по-настоящему. Коллеги кажутся мне живыми и одушевлёнными исключительно из-за моей ограниченности.

Я бы сказал, что тут действует вау-эффект. Нейросеть нарисовала картину, а мы раньше думали, что это умеют только люди - вау! Лет через дцать эти картины будут казаться крайне примитивными, как первые автомобили к примеру. А ведь тогда тоже было: безлошадный экипаж - вау!

Ага, бенчмарк emergent abilities Big-bench есть, а emergent abilities нет. Эта статья перевод fake news, да ещё и тупо устаревших ученых.

Это не настоящий код; просто правдоподобно выглядящая последовательность символов из какого-то распределения.

Это не так и даже звучит бредово.

Книга — полная чушь, правдоподобно слепленные токены.

Тогда как эта книга дала докторскую степень? Или вы думаете на защите там тоже GPT 3.5?

На защите там бюрократический голем.

ChatGTP же работает на токенах. Он статистически подбирает части слов к предыдущий. И он не умеет отвечать, а тупо продолжает введенный текст.

Для ии нужно ввести рациональное мышление, и ввести пространство смысла слов. Тогда появится эмержетное свойство.

Sign up to leave a comment.

Other news