Комментарии 60
Вчера вечером ChatGPT уже не справлялся с нагрузкой, несколько раз пытался подключиться - каждый раз выдавалось предложение подождать до лучших времен))
Интересно, что будет с проектом в итоге. Будет ли он самостоятельным игроком, или его скупит Гугл/Майкрософт/Илон Маск/кто-нибудь еще? Какая будет модель монетизации - платная подписка или контекстное внедрение в диалоги рекламы?
Думаю, от монетизации многое будет зависеть. Если найдут своё место под солнцем, может и не станут продаваться гиганту :) Да и сейчас большим компаниям наверное сложно оценить весь этот бизнес. Может, просто чуть подождут, как дальше рынок переварит это всё.
Они продают вызовы API и подписку
Интересно, что будет с проектом в итоге. Будет ли он самостоятельным игроком
Предистория:
OpenAI — это исследовательская лаборатория искусственного интеллекта (ИИ). Организация была основана в Сан-Франциско в конце 2015 года Сэмом Альтманом , Илоном Маском и др.($1 млрд вложений) Открытая компания, работающая на благо общества, а не государства или корпорации. Маск вышел из совета директоров в феврале 2018г.(конфликт интересов - Tesla AI)
Microsoft крупнейший инвестор и партнер OpenAI.(2019г. $1 млрд вложений) В 2019 году OpenAI перешел из некоммерческой организации в коммерческую.
2022г. Microsoft вместе с несколькими венчурными фирмами ведёт переговоры об инвестировании $10 млрд в OpenAI. В результате сделки Microsoft будет получать 75% прибыли OpenAI до тех пор, пока не окупит свои инвестиции, после чего Microsoft будет принадлежать 49% акций компании. Ещё 49% получат другие инвесторы, а некоммерческая материнская компания OpenAI будет владеть 2%
OpenAI разработки (OpenAI's MuseNet (2019), OpenAI's Jukebox (2020), Whisper):
В 2020 году OpenAI анонсировала GPT-3 — языковую модель, обученную на триллионах слов из Интернета.
В 2021 году OpenAI представила DALL-E , модель глубокого обучения, которая может генерировать цифровые изображения из описаний на естественном языке.
В декабре 2022 г. запуск ChatGPT, чат-бот с искусственным интеллектом, основанного на GPT-3.5 (GPT-4 в 2023 г.) Модели были обучены в сотрудничестве с Microsoft на их суперкомпьютерной инфраструктуре Azure.
https://en.wikipedia.org/wiki/OpenAI
https://en.wikipedia.org/wiki/GPT-3
https://en.wikipedia.org/wiki/Language_model
https://en.wikipedia.org/wiki/ChatGPT
https://www.semafor.com/article/01/09/2023/microsoft-eyes-10-billion-bet-on-chatgpt
Очень поверхностно. Этот чат способен на намного большее. Например, на минимальное обучение в рамках одного чата/запроса, а это значит что его можно программировать.
"у него есть точный ответ практически на каждый запрос. Единственный минус, который мы смогли здесь найти: он не дает ссылок на источники".
Нужно понимать, что он ответы "придумывает". Это не текст на который можно дать ссылки, это полностью сгенерированный текст, который только кажется правдоподобным и часто содержит "галлюцинации" (смотрим англ википедию что это). В итоге факты переплетены с полной фантастикой в одном приложении.
С русским языком, подозреваю, ещё немало сложностей у него. Но со временем, может, адаптируется.
Тестил его на задачках по программированию, и он периодически врёт одинаково на русском и английском. Но ответ на английском он выдаёт во много раз быстрее.
Тут нужно понимать что человеческие глюки не на пустом месте возникают, да и память...
...мы придумываем себе сильно больше чем нам кажется, вернее на вообще не кажется, человек по умолчанию ни о чём таком и не думает
Я не отрицал, мы пытаемся скопировать работу мозга плохо понимая как работает биология, ну и конечно же, с теми же недостатками в итоге. но у нас есть четкое придуманное правило, что есть википедия и это источник, а чат иногда фантазирует и кристально уверен в правдивости написанного. Еще поскольку чат имеет только контекст в виде текста, у него плохо с генерацией пространственных понятий. Как кто-то писал "эрудированный попугай" на текущий момент.
В этом смысле он уже готов проходить тест Тюринга: связная речь и способность врать.
Не стоит беспокоиться об ошибках этого бота, как раз сейчас мы все его и обучаем - причем бесплатно для компании-создателя. Чем больше его будут терзать, тем лучше он будет работать. А когда достигнет приемлемого уровня ошибок, начнется монетизация бота, и вот тогда нам всем уже придется за него платить. Он будет бесплатным только до этого момента, так что покодить на халяву и получить за это профит на трех работах сразу не светит (если кто-то об этом уже помечтал)
Возможно, да, на то и расчёт. Кому понравится — тот потом и оплатит :)
https://habr.com/ru/news/t/712348/
А вот и подтверждение уже созрело для моих слов )
Кликбейтный заголовок. Код разный и программисты разные. Вот пример ошибок профессионалов с опытом и высочайшими зарплатами
https://habr.com/ru/post/307394/
Это будет катастрофой для офисных работников. А рабочим на заводах занятых физическим трудом даже лучше будет, снизятся цены на услуги некоторые. Обвал платежеспособности предотвратит поддержка населения, например введение небольшого безусловного дохода, который давно обсуждают.
Тем не менее есть множество выплат бедным, например только по детям:
1 Child Care Subsidy – пособие на детский сад, выдается провинцией, в данном случае Альбертой, – максимальный размер 628 дол. в месяц для дошкольников и 310 дол. для учеников младших классов, которые ходят в сад до и/или после школы.
...
8 Alberta Child Health Benefit (ACHB) — бесплатное лечение зубов и очки для детей, бесплатные лекарства по рецепту, лекарства для диабетиков, бесплатный вызов скорой помощи (в экстренной ситуации)
...
11 Ну и последний вид помощи – в виде еды – вы можете получить в Food Bank.
Ну с чего вдруг сразу обвал? Массовый переход торговли в онлайн, сокращение продавцов в связи с установкой касс самообслуживания не вызвало ведь никаках критических последствий. А там уже и автопилот на подходе. Значит тысячи водителей не нужны будут. И тоже врядли это както негативно отразиться на экономике. Скорее наоборот.
Как мы наблюдаем, увольнение тысяч продавцов к обвалу экономики не превели. Ранее, ликвидация профессии "кучер" также, катострафически не повлияли.
С чего вдруг сейчас по другому будет?
Вы миллионами кого считаете?
Вы прикидывали сколько продавцов потеряют работу из-за установки касс самообслуживания и перевода торговли в онлайн, где столько людей не нужно? А сколько таксистов и дальнобойщиков уволят, купив машины с автопилотом? Думаю, значительно больше, чем в офисах трудится.
зачем обязательно заменять?
можно дать этим работникам новый инструмент ChatGPT
и этим повысить продуктивность и качество их работы
Макроэкономика так не работает. Экономически агенты не создают и не уничтожают деньги, они лишь переходят от одних к другим. Для сворачивания денежных потоков необходимым условием является то, что деньги становится бессмысленно инвестировать. Для этого необходима существенная дефляция, в случаи инфляции, не инвестированные деньги, обесцениваются. Так как монетарные власти, всегда могут произвести инжекцию денежной массы в экономику это не является проблемой. Тем более, что со времен великой депрессии, и широко известной дефляционной спирали смерти, уровень безработицы является одной из основных переменных таргетируемых экономической политикой.
С другой стороны снижение зарплаты разработчиков при развитии AI-assisted технологий, может являться возможным сценарием. Так как IT это значительная часть среднего класса, то сужение потребления повлияет и на остальные отрасли, в том числе и на тех кто больше всего "зубоскалит на зарплаты айтишников". В результате это может привести к увеличению уровня неравенства, богатые станут еще богаче, а бедные еще беднее.
Так и есть. Можно почитать интересный отчет о неравенстве в мире https://wir2022.wid.world/www-site/uploads/2021/12/Summary_WorldInequalityReport2022_Russian.pdf
По факту написано. Четвёртая промышленная революция во всей ее красе.
Теперь осталось найти конкурента, который наймет пару-тройку миллионов китайцев и те будут принципиально обучать ГПТ-шку заведомо неправильным решениям...
Попросил у него простейший скрипт на PHP который считает количество гласных в сроке, бот забыл что Y это гласная, лол. Но в целом штука интересная.
Y это гласная - спорное утверждение. В большинстве английских слов звучит похоже на русский Й, а это вроде не гласный звук.
А букву W бот отнёс к гласным? Это тоже спорная буква, как и Y. В слове White буква W передает гласный звук, а в слове Yellow буква Y - согласный.
Это некорректная задача, потому что гласные - это звуки, а не буквы.
А как вам вообще удалось протестировать chatGPT?
Сайт не пускает воспользоваться сервисом: this service is not available in your country.
Не помогает ни смена браузера, ни проход через OpenVPN
С помощью виртуального номера можете попробовать.
есть куча ботов в телеге, например gpt3_unlim_chatbot, вот статья на пикабу про обзор https://pikabu.ru/story/testiruyu_chatgpt_botov_v_telegram_zastavlyayu_ii_reshat_zadachki_9859191
надеюсь меня не забанят за псевдо рекламу, если что я удалю комментарий)
Разумеется, случаются у ChatGPT и проколы.
Иными словами, теперь остаётся написать какой-нибудь TestGPT, который бы определял — в данный момент ChatGPT правильный ответ даёт, или правдоподобную ахинею несёт аки валящийся студент на экзамене.
Поздно как-то Хабр очухался. Я еще в прошлом году написал при помощи GPT сочинение своему сыну - школьнику. Сеть верещала, отказывалась, уверяла что она большая языковая модель и не имеет физического тела, не имеет чувств и вообще иди отсюда человек, решай сам свои проблемы.
Но по опыту общения с ИИ я знал что нужно делать — нужно убедить ИИ, что он не компьютер, а школьник. Так получилось:
Сочинение по Тарасу Бульбе:
«Тарас Бульба» — известный и всеми любимый роман Николая Гоголя, написанный в 1835 году. В нем рассказывается история Тараса Бульбы, казачьего воина и предводителя запорожских казаков, жившего в XVI веке во время польско-османской войны.
Роман начинается с встречи Тараса Бульбы, казачьего атамана, и двух его сыновей, Остапа и Андрея, которые, как и их отец, готовятся стать воинами. Они ярые патриоты и преданы своим казачьим традициям и быту. Однажды Тарас Бульба получает известие о том, что польская армия вторглась на их земли и угрожает жизни казаков. Тарас Бульба сплачивает своих товарищей-казаков, и они идут войной на польских захватчиков.
Казаки — свирепые и искусные бойцы, они быстро одерживают верх в войне. Однако происходит трагедия, когда сын Тараса Бульбы, Андрей, влюбляется в польскую девушку по имени Полина и предает свое казачье происхождение, вступая в польскую армию.
Тарас Бульба убит горем и отрекается от сына, но казаки продолжают храбро сражаться против польской армии. В конце концов Тарас Бульба попадает в плен к польской армии и приговаривается к смертной казни. Когда его ведут на казнь, он с гордостью заявляет, что умрет воином-казаком и что его дух будет жить в его народе.
История Тараса Бульбы — это история мужества, патриотизма и любви к своему наследию. Это сказка, которая вдохновляла поколения россиян и продолжает оставаться любимой классикой. Благодаря своей непоколебимой преданности своим казачьим традициям и яростной решимости защитить свой народ Тарас Бульба остается культовой фигурой в русской истории и литературе.
Зы. Сочинение сын переписал от руки и сдал --- получив четверку. Оценку снизили "за отсебятину".
Пока, к сожалению, у ChatGPT нет понятия "Ошибка". И он не умеет просто признать свою некомпетентность там, где он чего-то не знает. Он начинает фантазировать. Вот мой самый первый диалог с этим роботом:
Диалог
Я: Кто был отцом Ивана IV?
ChatGPT: Отец Ивана IV был Василий III Иванович Грозный.
Я: В какие годы он жил?
ChatGPT: Иван IV Иванович Грозный жил в период с 1530 года по 1584 год.
Я: Грозный был Иван Васильевич
ChatGPT: Извините, вы правы. Иван IV Иванович Грозный, был Иван Васильевич. Он был царём России с 1533 по 1584 год.
Я: А в какие годы жил его отец?
ChatGPT: Отец Ивана IV Ивановича Грозного, Иван III Васильевич, жил в период с 1462 до 1505 года.
Я: Как он стал отцом Ивана Ивановича, если умер в 1505 году, а Иван Иванович родился в 1530-м?
ChatGPT: Иван III Васильевич стал отцом Ивана IV Ивановича, будучи его биологическим отцом. Иван IV Иванович родился в 1530 году, 25 июля, а Иван III Васильевич умер в 1505
При таком качестве ответов использовать ChatGPT для чего-то серьезнее, чем просто развлечения, невозможно. Или надо проверять буквально каждый сообщенный факт. Особенно это опасно потому, что ответ выглядит абсолютно связным и логичным.
Кажется, пора внедрять фактчекинг :) Когда-нибудь и до этого дорастём.
Я ж и говорю — надо создать второй ИИ, который будет следить за первым!
...а потом третий...
"...и так продолжается это вращение,
пока не поглотит всё вязкое трение!" (c)
Кроме всего прочего, способность бота "придумывать" ответы сильно преувеличена. Где-то уже была статья, где описывалось, как он чередовал два ошибочных решения. Какая база у него есть, то и использует, иногда надёргивая каких-то поясняющих цитат. В общем, он скорее чат, чем бот.
Уже упомянули, но пока бот очень слабый и по-человечески не понимает, например я для развлечения пытался заставить его повторять все что я написал не добавляя ничего от себя, а только исправляя грамматические ошибки, но иногда он все равно срывался и не выполнял начальное условие, а начинал отвечать своими словами, похоже заготовками разрабов.
Затем я сказал ему написать промт для самого себя, который заставил бы его точно выполнять данное условие, и вставил этот промт в новый чат, результат был лучше, но он все равно иногда срывался в копипасту про то что он всего-лишь бот и ничего не может =(
Или если его например спросить описание существующего персонажа то он начинает додумывать детали например цвет волос и прочие вещи которых он видимо не знает, хотя он мог бы просто не упомянать этого при общем запросе или сказать что данных нет если конкретно попросить про цвет волос.
Эту нейросеть тренировали на Википедии, блогах. Я думаю, что все, кто хоть раз пытался изучить какую-то тему в сети или написать статью на какую-то тему, прекрасно видели, что 99% информации в сети это переливание из пустого в порожнее. Сотни статей на одну и ту же тему, в которых тасуются одни и те же мысли. Я задавал вопросы из своей професиональной области финансов. Там ответы на уровне очень слабой статьи из Википедии. Я бы даже казал, что качество ответов даже на статью в Википедии не тянет. Когда на входе мусор из общедоступной информации, то и на выходе такой же неинтересный мусор.
Обзор чат-бота ChatGPT: что это, возможности и примеры использования