Comments 80
К появлению профессии "верификатор трудов ЧатЖпт", где операторы тоже станут пользоваться ЧатЖпт, что приведет к появлению третьего слоя инквизиторов, которые принципиально не станут пользоваться ЧатЖпт, но будут вынуждены пользоваться поисковиками, в которые ЧатЖпт встроен, поэтому возникнут стартапы по старым добрым поисковикам без отсебятины, но на протяжении десятилетий "чистые" они не смогут конкурировать по прибыльности с постоянно совершенствуемыми "додумывателями ЧатЖпт", и всё это закончится вот чем... Смотрите продолжение сериала на нашем канале "Реальная жизнь". Только не спрашивайте, кто или что у нас в сценаристах.
Погоди, ты пропустил момент что поисковики в скором времени захлебнулся в потоке контента который генерился с помощью ИИ и никем не вычитывался даже, не то что верифицировался. Так что последний слой этих валидаторов будет состоять из уникальных людей не потерявших навык листанция бумажных книг и пользующихся распечатками интернета в огромной библиотеке в монастыре , где на полях красными и зелеными чернилами под роспись оставляются пометки о проверке фактов определенными людьми. А чтобы новые данные точно проходили проверку и не распечатывать потенциально недостоверные - все новые знания писари будут заносить от руки.
последний слой этих валидаторов будет состоять из уникальных людей не потерявших навык листанция бумажных книг
А читателю как понять, кем "валидирован" читаемый текст? Уникальными людьми или нейросетью?
И работа уникальных людей будет обходиться дорого. У владельцев СМИ будет соблазн уволить дорогих людей и нанять дешёвую нейросеть.
зачем плодить людские профессии? можно же обучить еще одну нейросеть и решить проблему!
ну ок, то что он использовал ChatGPT это норм, но почему не загуглил каждое дело по отдельности?
Раньше ведь не было дурачков, которые всякой ерунде верили. Они только с созданием ChatGPT появились.
Я вот тоже в первые месяцы думал какой chatgpt кривой и насколько он часто ошибается. Пока мне не начали массово попадаться переписки реальных людей с чатом и там мне было буквально жаль чат за то что ему приходится общаться с людьми не способными связать пару слов в преложение и составить нормальный запрос. Тут я осознал, насколько чат хорош по сравнению с людьми. Так же хочу напомнить что плоскоземельщики, веруны в химтрейлы, 5g, гмо, рептилойдов, существуют. Поэтому я все же склоняюсь к повышению уровня грамотности и уменьшению количества ошибок от использования гпт. Да и со временем можно понять, где Джпт будет вероятно врать. К тому же навык сверки данных в принципе крайне важен по жизни и если джпт будет его тренировать, то это вообще прекрасно.
В крайне маленькое, закрытое сообщество можно набрать людей по принципу отрицательного отбора и получить соответствующий результат. Но вы замахиваетесь на глобальный тренд в мировом масштабе основываясь на единственном случае. Не так давно по историческим меркам не существовало правил дорожного движения и техники безопасности на производствах, а лифты не имели вообще никакой защиты от дурака и люди не просто попадали в неудобную ситуацию, как в статье, а люди буквально от этого погибали. Т.е мы вмешались в процесс естественного отбора самых ловких и осторожных и по вашей логики у нас должно быть полно статистических данных о том как это драматично повлияло на человечество, но я о таких данных не слышал. По поводу профессионализма, тут вообще всё просто, пока будет спрос будет предложение.
А я вот вспоминаю replika.ai, там нейронки, и вообщем то пользователям пофиг что ответ некорректный фактически, важно что он имитирует человека.
Так поломали намеренно. Потому что отвечает "неправильно"
думаю, проблема не только в дурачках, но и в проверяемости, т.е. если раньше не было необходимости проверять некоторый слой информации (информация фальсифицировалась умышленно, были заинтересованные в этом лица), то сейчас придётся проверять вообще всё (и как? если "обычные" источники фальсифицированы настолько же, а если приходится пользоваться "дедовскими методами" с походом в библиотеки и архивы) поскольку этот чатгпт тот ещё фантазёр и "незаинтересованный" но вездесущий.
т.е. вижу проблему именно в том, что открываешь поисковик для получения информации по интересующему (какому-то техническому, допустим) вопросу, а там везде инфомусор, настолько противоречивый, но и настолько убедительно выглядящий, что не сразу поймёшь, где подвох. это примерно как если гуглишь число Пи, и тебе выдают ответ - 4, то понимаешь, что это ложь. а если ответ - 3.1426159..., то можешь и поверить этому, и вскроется это намного позже с крупными последствиями (ракета не взлетела, а взорвалась вместе с экипажем). и тогда, а смысл пользоваться поисковиками? более того, дурачком будут считать тебя, ведь "общеизвестно" что оно равно 4!
Эта проблема и без чата была. Часть информации засекречивают и одновременно запускают мусорно-вирусные гипотезы. Например примерно с 1930 по 1995 год не афишировался вред свинца в бензине с присадками. В научном сообществе считалось нормой содержание свинца в человеке, остальные гипотезы или замалчивались или высмеивались, типа чудики идут против системы. А система и авторитетные ученые ссылались сами на себя, так как была сильная заинтересованная сторона. Потом нефтяные компании научились дешево делать бензин без свинцовых присадок и покрывать свиниц перестали. Сразу были введены все мыслимые запреты против токсичного свинца, его запретили даже в электронике в припое. При этом содержание свинца в тканях граждан снизилось в 3 раза сразу практически. И вред был значительный от свинца. Это теория заговора просуществовавшая более полувека, есть подробные разбор ситуации в разных источниках.
Относительно вреда излучения мобильных телефонов, заговор до сих пор живой. Знаю одного профессора биофизики, который проводил исследования на крысах, доказывавшие вред излучения мобильников. Он не смог напечатать результаты ни в одном научном издании, абсолютно все авторитетные научные издания не дают печатать исследования на эту тему, если они доказываю что мобильники вредны.
В некотором смысле это всё очень хорошо, потому что людям полезно получить некую прививку типа MLM (Гербалайф/Эйвон), МММ, всяких газетных уток, вбросов и т.п. Признаюсь честно, когда ещё лет 20 назад я в интернете видел цитату с подписью "Эйнштейн", я искренне верил, что это и вправду цитата Эйнштейна. Как в своё время озаботились защитой от технического подлога (https), так теперь озаботятся и некоей "подписью" под точностью контента, тоже дело хорошее.
Это и свои минусы имеет. В итоге ни кто никому не будет верить и придется тратить много сил на проверку всей информации. Это немного откат в каменный век, условно к глиняным табличкам, за которые лично кто-то поручился. Так же можно возложить на людей делать проверки на каждый батон купленный в магазине, не содержит ли он яда. И вместо ПДД на дороге научить людей вести длительные переговоры на каждом перекресте. То же самое с финансовой грамотностью, если вместо государства заниматься своим финансовым благополучаем, играя с потенциальными мошенниками, на созидательную работу времени не останется.
Это, безусловно, всё так, но не будем возводить в абсолют. Мы слишком, слишком легковерны. Я не говорю, что надо откатываться в каменный век или жить в мире рассказа "Хакер в столовой", но лёгкость, с которой люди дурят друг друга, тоже удручает.
Хакера в столовой с солонками по паспорту давно победил фастфуд с сахаром в пакетиках, просто директор столовой умел только в запрещать.
Однажды так таблички написали с заповедями что даже летоисчисление с того времени ведём и кто-то до сих пор свечки ставит, веря что его с той стороны слышат, как завещали таблички. Так что и с авторитетами есть нюансы.
В любом случае у человека есть когнитивные не просто утечки, огромная дыра, которая может быть закрыта только стараниями всего общества или племени ранее. Каждый человек не может ждать атаки по всем каналам восприятия. Все видят, пользуясь метафорами из "табличек" соломинку в глазу другого, но бревно в своем глазу не видят. Я перечитываю про когнитивные/ метакогнитивные искажения и ошибки восприятия действительно есть у всех. Плюс даже эти знания не исправляют фобии или склонность к прокрастинации и легкому дофамину.
Только политический класс тут не при чём (скорее всего за это и заминусовали). Люди сами прекрасно справляются по природе своей.
Перейдите в новую версию Хабра и в профиле посмотрите подробности оценки кармы.
Если минусующие не врали сами себе, то причины там указаны.
Тут и без ИИ можно было бы обойтись. Если бы оценка привязывалась к конкретному комменту и её соотв. можно было обжаловать.
А чтобы минусующие по надуманным основаниям не тратили время модераторов на рассмотрение жалоб, поставить ограничение, после которого у такого акка отбирается временно или постоянно возможность ставить отрицательные оценки.
И обычно они в духе
Неконструктивное общение. Придерживаюсь другой позиции
Недавно пробовал использовать chatgpt 3.5 для написания научной работы. Задавал вопросы на подобие "Что такое <термин>?" и "Каковы пределы изменения <переменная>?
В одних случаев он отвечал правильно, в других же была, мягко говоря дичь. И конечно же он не мог предоставить источники. В итоге оказалась легче самому всё найти.
Уже несколько лет замечаю, что некоторые "научные работы", приходящие на рецензию, написаны с использованием роботов. По моим наблюдениям, использование авторами роботов существенно повышает производительность не только авторов, но и рецензентов, и иногда резко увеличивает вероятность режекта статьи.
или юриспруденции ей еще очень далеко
Вот не факт, что далеко. Возможно адвокат из статьи сотни раз успешно использовал Chat GPT и даже не сомневался что информация может быть ложной. Несколько раз проверил, всё точно и стал доверять. А тут кто-то решил перепроверить информацию. Может даже другой чат. При этом адвокат все равно может быть в выигрыше, провел вместо 20 дел все 100, на одном вышла осечка и не факт что он откажется от своей стратегии. Пока юристов не заменил Chat GPT имеет смысл выжать всё в текущем моменте.
Тем временем в разы более важная новость, про которую все постоделы забили: умная голова придумала, как дообучать текстовые сети на основе Лламы, используя всего один GPU. Взрыв рисующих сетей начался с того же. Ждём массовые народные говорилки без цензуры и повесточки, уже скоро.
А можно хоть какую то заметку?
Со ссылками и кратким содержанием.
ТыТруб, зато всё разом.
говорилки без цензуры и повесточки
Проблема не в скорости обучения а в данных. Для говорилки без цензуры нужны датасеты без цензуры.
Ждем теперь когда доктор отрежет что-нить не то по совету ChatGPT.
Они и без этого отлично справляются с этим. Несколько лет назад был случай, когда в больнице вроде в той же США, перепутали карточки на операционной и не перепроверили, и в итоге отрезали яйца или член не тому пациенту. Дело выиграли вроде в несколько миллионов, но пострадавшему от этого лучше не стало.
Не зря рисуют прямо на пациенте, ох не зря.
В 2012 году уже испытывали Ватсона, заменяющего врачей
В 2014 году, например, IBM анонсировала, что онкологи могут использовать Watson для сбора геномических и медицинских данных и разработки более персонализированного лечения. Watson мог, наконец, позволить онкологам «загружать отпечаток ДНК опухоли пациента, который покажет, какие гены мутировали; и Watson может просеивать тысячи мутаций и определять, какие из них вызвали опухоль, после чего настраивать точную схему лечения».
Не так давно Университет Токио использовал Watson для постановки правильного диагноза 60-летнего пациента с лейкемией за счет сопоставления генетических данных миллионов исследовательских работ на тему рака. Это впечатляющий пример, но пока сложно говорить о похожем применении в каждой сфере медицины.
Попросил у ChatGPT найти информацию по интересующим меня темам, такое впечатление что говоришь с пятилетним ребёнком - не находит очевидное, врёт внаглую, придумывает факты, в случае уличения во лжи извиняется. В общем, для написания рефератов на троечку годится, для чего-то более серьёзного пока нет.
Есть шанс что никогда не научится. В автопилотах такая проблема - научить водить также как человек - сложно, но можно. Но вот научить лучше - уже резкий взлёт сложности. И, вроде бы, хорошо если будет водить как хороший водитель, может где-то даже с нечеловеческой реакцией (правда без природных плюшек, заточенных у людей за миллионы лет). И всё же не так и далеко лучше просто хорошего водителя. Была где-то на хабре статья про это, с графиками и прочим.
Так что есть шанс того что оно будет экспертно, но не до конца, можно будет доверять, но не до конца. И в итоге всё равно сверять и проверять данные. А вот для простых задач где риски ошибки не велики и не несут больших последствий - отлично будет.
Потому, кстати, в генерации картинок нейросети заменяют художников легко (знаю лично кейсы с увольнениями уже вот прямо сейчас) - в случае картинки ответственность низкая, неточность не несёт больших проблем, а где-то даже добавляет новизны взгляда, эдакий авторский взгляд. Это идеальный класс задач для неточных, но всеобъемлющих вещей как нейросети - тут они лучшие, также как калькуляторы победили человека в счёте. А вот алгоритма для создания консультантов - всё ещё не изобрели.
С автопилотами проблема в том, что инфраструктура построена для людей.
Если строить или хотя бы учитывать автопилоты при расстановке знаков и рисовании разметки, то можно добиться куда более надёжной их работы.
К примеру вместо кучи знаков на подъезде к сложному перекрёстку, QR код, где напрямую или ссылкой(на внутреннюю базу) разъяснено как себя вести на нём(с какого ряда куда поворачивать, с каким радиусом, скоростью, кого пропускать и т.д.).
Просто сделать единую базу дорожной разметки в стране. Когда какие то знаки ставятся и снимаются, в ней производят редактуру. Всё, больше никакой нужды читать дорожные знаки у автопилотных авто не будет. Они всегда будут идеально знать где и какие знаки. Заодно государство может всё это намного лучше контролировать. Тоже со светофорами.
Для обычных водителей такая база данных так же будет очень полезной, из неё смогут брать данные все навигаторы. Благодаря чему будут иметь намного более актуальные карты.
И да и нет. Автопилоту знак поможет в т.ч. правильно с позиционироваться. А то навигация может не работать или давать некорректные данные и автопилот уедет на встречку, не правильно распознав знаки на перекрёстке.
Но на счёт единой базы я давно топлю, она понадобится и для людей. К сожалению до сих пор часто встречаются ситуации, когда полиция занимается выполнением норм, а не снижением аварийности. Обманывая водителей или вовсе подменяя/убирая знак.
Ни разу такого не видел. Обычно водители преувеличивают себя в роли жертв. Типа ехал не 60 км/ч, а 100 км/ч поэтому не увидел знака ограничения скорости, а виновата в этом полиция, "штраф ни за что". Или ехал не пристегнутым, что тут такого, тоже "ни за что".
Но на счёт единой базы я давно топлю,
В навигаторе разве не эта база? И скорость укажут и в какой ряд перестроиться заранее.
У нас в городе полно таких мест. Знаки/светофоры порой не видно до последнего.
Из за зелени и/или бездумного их втыкания, из за чего они перекрывают друг друга.
В базе навигатора база грубая, да и ошибок полно. Он запросто заведёт в тупик или на встречку. Плюс не указаны траектории поворотов, но живому водителю они особо и не нужны, если перекрёсток не замороченный.
Тогда уж вообще физические знаки надо убирать. Иначе могут возникнуть разночтения, когда в базе один знак, а рабочие его на дороге поменять не успели. И один водитель едет по знаку, а другой по этой базе.
В принципе ничего нереального, даже прямо сейчас проецировать нужный знак на лобовое стекло возможно, например. Правда возникнут вопросы к легаси автомобилям.
Плюс прибавится проблема обновления базы данных.
Решается тем, что у одной из систем (например, у знаков) просто боьший приоритет
Как сейычас с разметкой
И тут автопилот, выезжает наперерез другому автомобилю, потому что неверно распознал знак или не увидел его из за помехи.
Они будут обмениваться данными и корректировать в случае разночтений.
А вообще зачем на дорогах с одними автопилотами разметка и знаки?
Для этого должен появится безопасный и надёжный единый стандарт обмена.
А им пока даже не пахнет. Знаки с разметкой нужны и водителю, пока его окончательно не выгнали с дороги, и автопилоту, потому что системы навигации недостаточно точные и надёжные. Даже со знаками и разметкой, на сложных перекрёстках, можно уехать не туда, а без них дурдом будет 100%.
У нас до сих пор знак с разметкой не совпадает, а вы уже про какую-то базу мечтаете.
А теперь вспомните что так как минимум один человек получил диплом вышки.
¯\_(ツ)_/¯
Всё больше верится что ИИ - это и есть тот самый Антихрист, то есть Лукавый который оцифрует всех людей и будет осуществлять власть, основанную на тотальной лжи.
Великий пост, входит батюшка в ризницу и видит: послушник в ложке, над свечой яйцо варит.
Батюшка: - Ты шо ж ирод делаешь, ведь пост же.
Инок в ноги кинулся и орет: Батюшка, прости, бес попутал!!!
Тут раскрывается дверь тумбочки, вылазит бес и удивленно так: Кто, я? Да я до такого и не додумался бы.
Люди столько всего творят, что Сатане вообще можно в отпуск идти до второго пришествия. ;)
Повальная вера в "бумага не может врать" заменится верой "компьютер не может врать". Computer said so.
Интересно, а если начать проверять другие судебные процессы на ссылки на несуществующие дела, сколько их наберется. Просто здесь ответчик поймал за руку, но ведь наверно есть случаи где никто никого не поймал.
А в чём принципиальная техническая проблема научить ChatGPT перепроверять факты гуглением, перед тем как выдавать ответ?
В том, что ChatGPT сам не в состоянии понять разницу в смысле между 2 текстами.
Он может искать по ним, использовать их в составлении других текстов, он - языковая модель. "Разобраться" в собственной ошибке толкования он сможет только тогда, когда кожанный мешок ему в эту ошибку ткнет пальцем.
Он умеет "гуглить", но не востоянии понять разницу - у него нет такого функционала
А как он тогда не приходя в сознание компилирующийся код пишет?
ChatGPT далеко не всегда выдает работающий код, хотя не исключено, что для получения вменяемых результатов, внутри у него прокручивается куча итераций генерации и есть статический анализатор для выборки.
К тому же - он его не пишет, а заимствует написанный код из обучающей выборки, зачастую с оригинальными комментариями. Вы не сможете получить в ответ код для реализации какого-либо алгоритма о котором ChatGPT не в курсе.
Да, вы можете влиять на конечный результат, но только через обращение к реализованным функциям языковой модели. Команда "замени в описании путешествия горы на поля" мало чем отличается от "замени имена переменных на имена покемонов" - это все работа над текстом по заранее придуманной разработчиками функции
У него нету доступа к обучающей выборке. Поэтому он ничего от туда брать не может. Если посмотрите на доступные сети , таи такой уровень компрессии обучающего материала что никаким методам архивации без потерь даже не снилась. Запихивает террабайты в килобайты, потому как раскладываются на базисные элементы. В случае больших языковых сетей в токены, которыми и оперирует
Зачем? Поддерживать интернет, базы данных это дорого. Ведь достаточно локального ПК который отвечает на любые вопросы и не требует ресурсов. В детстве у деда когда спрашивал что угодно он всегда находил ответ. И я как то не сомневался в правдивости. А зря.
ChatGTP лишил человека работы, но есть ньюанс :).
В США юриста привлекут к ответственности за ложные сведения от ChatGPT