Pull to refresh

Comments 14

Если что-то может быть автоматизировано, то оно должно быть автоматизировано.

Другое дело, каким именно образом оно достигается. Крайне любопытный обзор/разбор. (Спасибо автору за время и труд.) Но в этих вопросах крайне не хватает логов самого GPT. Мы используем GPT как «серый» ящик («серый», потому, что мы знаем, что в GPT используется языковые порождающие модели). Но с точки зрения исходных данных и конкретной работы с этими данными, система оказывается настоящим «черным» ящиком.

Если представить себе работу GPT как блуждание по сети текстов, то полученные результаты понятны и ожидаемы. Это означает, что если некий новичок в разработке приложений начнёт создавать новую систему и будет ходить по интернету, то он, потратив много (или не очень много) времени, получит примерно то самое. Поскольку он новичок, то он не будет стеснён профессиональными ограничениями, и, поэтому, будет прямо копировать найденные на просторах интернета рецепты. GPT поступает именно как такой изначально неподготовленный новичок, хотя этот «новичок» и выглядит очень подготовленным в плане анализа вопросов и формулировки ответов. Другое дело, что GPT действует запредельно быстро. Что, очевидно, позволяет много раз использовать этот инструмент с различными параметрами.

А что мы получаем на выходе? На выходе мы получаем что-то вроде литературного программирования. Однако, вопрос о том, как именно получается то или иное решение, центральный. Если удастся понять происхождение ответов, то получиться и доказать. Но, я думаю, при таком стремительном развитии GPT (когда миллионы пользователей бесплатно набивают GPT новой хорошо структурированной информацией и, фактически, помогают строить полноценные модели предметных областей!), появятся модели, которые позволят получать удивительно точные и полностью достоверные ответы.

Спасибо!

Полностью с Вами согласен. Взаимодействие с "чатом" пока больше напоминает общением со способным Junior-аналитиком. Но его стремительное развитие сложно отрицать.

  1. Проблема коммерческой тайны. Ни один эксперт ИБ не одобрит передачу чувствительных данных в ChatGPT, так как они автоматически становятся доступными третьим лицам, как минимум, разработчики "чата". Поэтому ждем когда появятся хотя бы корпоративные лицензии, но вряд ли они будут доступны в России в ближайшее время.

Недавно в интервью Наталья Черниговская говорила о том, что специалисты по ИИ сами пугаются своих разработок и, даже, обнаруживают, как искусственные системы сами создают языки для общения между собою. Так что, боюсь, о замкнутом контуре придётся забыть.

Соглашусь, подобные системы могут запросто представлять угрозу, находясь внутри корпоративного контура. Но и через пару лет будет сложно игнорировать их пользу и выгоду использования. Думаю, что все равно должны появиться относительно безопасные решения. Хотя пока сложно представить, что ИБ какого-нибудь банка согласует их использование.

Технологии как ChatGPT, при правильном использовании, могут помочь выполнять больше работы с лучшим результатом, но с меньшими усилиями. Ведь это мечта каждого, согласитесь?

Предположим, мы нашли (при помощи ИИ) некую оптимальную архитектуру. Согласится ли с этим программистское сообщество? Признается ли оно необходимость растиражировать эту архитектуру для решения всех аналогичных задач? Ведь, по сути, каждую более-менее крупную задачу можно рассматривать точно также, как это сделано выше, при разработке доски. Везде есть свои доски. Но тогда и архитектура должна быть одна на всё. И то, что она — архитектура, то она, как целостная система представлений и спецификаций, она будет гарантировать надёжность и эффективность функционирования.

Другое дело, что разобранный в статье пример — это хорошая демонстрация того, в какой ад совместного использования кучи разношёрстных микротехнологий превращается создание программного обеспечения. Может быть, ИИ позволит здесь навести порядок и получить набор взаимосвязанных и взаимоувязанных решений на различных уровнях иерархии? Но для этого понадобятся настоящие генеративные сети, которые будут заниматься обобщением, а не предсказанием ожиданий пользователя.

Проблему с «забывчивостью» и локальным контекстом может быть получится решить с помощью внешней памяти, не сохраняя всё в контексте, пусть даже и большем у новых поколений.

В машинном обучении «забывчивость» иногда означает специальный параметр принудительного забывания данных, использованных ранее на обучении. Или, наоборот, скорость (или темп) обучения. «Забывчивость» позволяет быстрее переключаться между контекстами. Другое дело, что нужно одновременно держать наготове модели, которые обучены на различных контекстах и устраивать между ними состязания. Наверное, именно сейчас, это и реализуется (при помощи состязательных сетей).

Я говорю про потерю части контекста GPT-моделями в процессе инференса, а не при обучении.

Тогда я чего-то не понял. Что имеется в виду?

Не уверен, но в комментариях одной из статей про ChatGPT было что можно его попросить задавать уточняющие вопросы и тогда становилось работать быстрее. Сам я не пробовал, но если действительно так, то минус про вопросы немного сглаживается

Если честно, не нашел такую опцию.


Поэтому пошел смотреть блог самой компании OpenAI, там в разделе ограничений (Limitations) есть пункт, что пока модель не задает вопросы, а предугадывает назначения вопроса.
"Ideally, the model would ask clarifying questions when the user provided an ambiguous query. Instead, our current models usually guess what the user intended."

Так что пока "чат" этого не умеет и делается это намеренно. Но как только он научится задавать вопросы, да, полезность для решения сложных задач увеличится

По-моему те кто понимает, про что этот наш GPTChat и не придают ему сокрального смысла, понимают четкого, кого он сможет заменить. Компиляторов - да, хороших компиляторов с навыками аналитиков - в ближайшем будущем. Творцов он заменит вряд-ли)

Каких таких творцов он не заменит? Новое создаётся из старого, поэтому творец - это компилятор, а хороший творец - компилятор с навыками аналитиков. Если мы говорим про искусство, то там заменить человека проще простого, поэтому по факту искусство исчезнет. Если мы говорим про инженерную деятельность, то для этого и создаются нейронки. Ограничение нейронки - это ограничение внешней информации для построения картины мира. Чем полнее картина мира, тем лучше работает нейронка.

Вопрос творчества относительно ChatGPT можно ставить в случае, когда мы определимся, что творчеством считать. Если новое создавать из старого и творец тогда - это компилятор, а хороший творец - компилятор с навыками аналитики. Но тогда выше уровня скетчей и мемасов нет смысла и закладываться. Контент конечно будет, но исключительно такого уровня.

Если мы говорим про искусство, то там заменить человека в глобальном понимании созидания смыслов и образов, которые гораздо глубже и шире визуальной составляющей - это врядли. Любое искусство это конечно ремесло и ремесло во многом алгоритмичное, но только в обучении. По достижении необходимого уровня творчества для созидания, творец не ограничен ничем кроме своей фантазии, а ChatGPT - предыдущими способами созидания и скомпилировать новые смыслы не способен ввиду остутствия фантазии. Даже суть слова "абстракция" к компиляции отношения не имеет.

Sign up to leave a comment.

Articles