Ок, я скорее на свой опыт ориентировался. У нас нет бизнес-аналитиков и основная неопределенность - в том, будет ли удобно пользоваться определенной технологией в определенном интерфейсе. Figma не дает возможность это реализовать, а полновесная реализация - дорого и возможно придется выкинуть.
Они прикидывали ситуацию из демо GPT-4 Vision: сфоткал дизайн сайта на салфетке и получил код. https://www.youtube.com/shorts/i0bGZffYUNs?feature=share В итоге AI, если не понимает, что конкретно делать-то, сможет задавать вопросы. Конечно, без контекста конкретных технологий, а скорее чтобы снять совсем уж непроработанные вещи.
Ок, я исправил текст, чтобы было более понятно. Основная мысль, что когда от продакт-менеджера вместо документа, плохо сформулированного, приходит работающий прототип со всеми нюансами и корнер кейсами, количество вопросов от разработчиков и возможных проблем в финальной версии радикально уменьшается.
И она там еще говорила, что Copilot может же и вопросы продакту за разработчиков задавать, в итоге вытягивая из него все нужные данные вместо того, чтобы команде обнаруживать несоответствия уже на этапе демо.
Первое: проверка гипотезы при занятой другими задачами разработке. Продакт что-то придумал, попробовал, покрутил разные варианты, финальное показал другими командам или клиентам, собрал обратную связь, и все это не отвлекая разработку.
Второе: не совсем понятно, что делать надо, очень большая неопределенность. Нужно увидеть сочетание технологии и интерфейса, чтобы понять, что именно так и надо двигаться дальше, или что не выходит каменный цветок.
Среди изменений OpenAI указал The Verge на новую форму, которую пользователи из ЕС могут отправить для удаления личных данных в соответствии с Общим положением о защите данных (GDPR) в Европе. Компания также сообщила, что новый инструмент будет проверять возраст пользователей при регистрации в Италии, и опубликовала статью в справочном центре, в которой описывается, как OpenAI и ChatGPT собирают персональные данные, включая информацию о том, как связаться с уполномоченным по защите данных в соответствии с GDPR.
Тоже была аналогичные мысли. По качеству и стоимости всегда склоняюсь к мысли по фичам в продукте, что надо сначала сделать минимальную версию, собрать обратную связь, увидеть реальное использование, а потом уже при приближении к лимитам подхода переходить на что-то более кастомное. Сделать как раз аналогичный случай, для 80% задач они подойдут отлично.
Спасибо! Спекуляций и завышенных ожиданий и правда много. Но то, что прогресс просто невероятный и проблемы полугодовой давности часто уже не актуально, это действительно поражает воображение
У меня задача была довольно специфическая и возможно именно там whisper хорошо проявляется. Моя задача была понять практически в реальном режиме, о чем идет речь на конференции, а соответственно получить на телефон потоковый сигнал на определенном языке, оцифровать и перевести на английский или русский. Соответственно таймауты я регулировал самостоятельно, просто сбрасывая по таймеру и отправляя новый чанк, либо тормозил руками. Термины особо не интересовали, потому что все равно не понятно о чем будет речь, и идеальное качество выходного текста было не нужно. Но проблема с Google Speech-to-Text была в том, что он вообще выдавал чушь из-за того, что это микрофон, встроенный в смартфон, и звук из колонок в шумном помещении. В итоге в такой обстановке он выдавал абсолютную чушь или пропускал огромные куски. Whisper же мог разобрать больше и дать возможность хотя бы 70% информации представить в понятной форме.
Ок, я скорее на свой опыт ориентировался. У нас нет бизнес-аналитиков и основная неопределенность - в том, будет ли удобно пользоваться определенной технологией в определенном интерфейсе. Figma не дает возможность это реализовать, а полновесная реализация - дорого и возможно придется выкинуть.
Да, если бизнес-аналитики хорошие, есть в наличии и доступны.
Они прикидывали ситуацию из демо GPT-4 Vision: сфоткал дизайн сайта на салфетке и получил код.
https://www.youtube.com/shorts/i0bGZffYUNs?feature=share
В итоге AI, если не понимает, что конкретно делать-то, сможет задавать вопросы. Конечно, без контекста конкретных технологий, а скорее чтобы снять совсем уж непроработанные вещи.
Ок, я исправил текст, чтобы было более понятно. Основная мысль, что когда от продакт-менеджера вместо документа, плохо сформулированного, приходит работающий прототип со всеми нюансами и корнер кейсами, количество вопросов от разработчиков и возможных проблем в финальной версии радикально уменьшается.
Вот с этапом "прототип -> продакшен" пока сделать действительно ничего радикального нельзя, но этап "сбора требований", как описал выше - запросто.
Типа жаловаться на его плохо сформулированное ТЗ )
И она там еще говорила, что Copilot может же и вопросы продакту за разработчиков задавать, в итоге вытягивая из него все нужные данные вместо того, чтобы команде обнаруживать несоответствия уже на этапе демо.
Я думаю, тут с 2 сторон может быть преимущество.
Первое: проверка гипотезы при занятой другими задачами разработке. Продакт что-то придумал, попробовал, покрутил разные варианты, финальное показал другими командам или клиентам, собрал обратную связь, и все это не отвлекая разработку.
Второе: не совсем понятно, что делать надо, очень большая неопределенность. Нужно увидеть сочетание технологии и интерфейса, чтобы понять, что именно так и надо двигаться дальше, или что не выходит каменный цветок.
И ещё и внимание людей привлёк огромное и денег на исследования и стартапы.
Можно в системном промпте это исправить.
Ну... Всё непонятное сначала страшно, а потом уже привычно
Я так понимаю они регистрацию ужесточили в Италии и добавили всяких объяснялок.
https://www.theverge.com/2023/4/28/23702883/chatgpt-italy-ban-lifted-gpdp-data-protection-age-verification
Среди изменений OpenAI указал The Verge на новую форму, которую пользователи из ЕС могут отправить для удаления личных данных в соответствии с Общим положением о защите данных (GDPR) в Европе. Компания также сообщила, что новый инструмент будет проверять возраст пользователей при регистрации в Италии, и опубликовала статью в справочном центре, в которой описывается, как OpenAI и ChatGPT собирают персональные данные, включая информацию о том, как связаться с уполномоченным по защите данных в соответствии с GDPR.
Мне кажется я в статье довольно много вариантов описал. А так можно вот этот курс для начала пройти https://www.deeplearning.ai/courses/generative-ai-for-everyone/
Надо тестить, да.
Тоже была аналогичные мысли. По качеству и стоимости всегда склоняюсь к мысли по фичам в продукте, что надо сначала сделать минимальную версию, собрать обратную связь, увидеть реальное использование, а потом уже при приближении к лимитам подхода переходить на что-то более кастомное. Сделать как раз аналогичный случай, для 80% задач они подойдут отлично.
У нас даже с Function calling не всегда получался валидный json, доп.проверками на бекенде справлялись и перегенерацией.
Спасибо! Спекуляций и завышенных ожиданий и правда много. Но то, что прогресс просто невероятный и проблемы полугодовой давности часто уже не актуально, это действительно поражает воображение
По текущим задачам (видимо у вас зум-созвоны или звонки с клиентами) советую посмотреть в сторону дообучения, в том числе на расшифрованных другими STT-моделями или руками. Можно существенно повысить качество, даже если там 100 часов всего.
https://huggingface.co/blog/fine-tune-whisper
Ну и да, надо тестировать на конкретные задачи. Google же тоже после Whisper выкатил новую state-of-the-art модель - https://blog.research.google/2023/03/universal-speech-model-usm-state-of-art.html
А буквально через пару недель и Мета - https://ai.meta.com/blog/multilingual-model-speech-recognition/
У меня задача была довольно специфическая и возможно именно там whisper хорошо проявляется. Моя задача была понять практически в реальном режиме, о чем идет речь на конференции, а соответственно получить на телефон потоковый сигнал на определенном языке, оцифровать и перевести на английский или русский. Соответственно таймауты я регулировал самостоятельно, просто сбрасывая по таймеру и отправляя новый чанк, либо тормозил руками. Термины особо не интересовали, потому что все равно не понятно о чем будет речь, и идеальное качество выходного текста было не нужно. Но проблема с Google Speech-to-Text была в том, что он вообще выдавал чушь из-за того, что это микрофон, встроенный в смартфон, и звук из колонок в шумном помещении. В итоге в такой обстановке он выдавал абсолютную чушь или пропускал огромные куски. Whisper же мог разобрать больше и дать возможность хотя бы 70% информации представить в понятной форме.
Это бюст директора )