Большие лингвистические модели не умеют сохранять что-либо. Они генерируют предсказания только на основе входных данных. Что касается реализации переключения контекста - наверняка можно так сделать, например, используя api, но это будет что-то вроде переключения между вкладками браузера, т.е. доступ к контенту одной вкладки из другой получить не удастся, а раздельно - пожалуйста. Кстати, список диалогов у ChatGpt - это почти то же самое.
Боюсь сильно меньше :) Но зато есть в дополнение миллион прикольных идей, которые я собираюсь реализовать, например, салютики вместо крови, конфетки вместо мясца, ну и в таком духе.
отдельная большая история = отличная статья, где всё по полочкам ;)
на самом деле мне, например, как новичку, очень интересно сравнение фрэймворков с OpenGL. Еще интересно сравнение производительности, удобства и прочего у канваса и OpenGL. Я прекрасно понимаю, что канвас далеко позади, но в определенных кейсах не хочется подключать большие либы к проекту.
Когда я сделал свою первую сеть на Tensorflow, она была корявой, но на 10 классах изображений я смог добиться 50% точности распознавания (было примерно по 1000 образов на класс). Тогда мне стало интересно визуализировать первый слой фича-экстрактора. Сделал. Там было что-то похожее на шумы. Я задумался, почему же там нет таких красивых картинок как в примерах? Стал искать инфу, оказалось что те примеры и были сгенерены человеком, а при обучении всего лишь немного видоизменяется рандомно инициализированная матрица. Тогда я поставил эксперимент, применив к первому уровню фильтры со второй картинки Kernel в статье. Результат остался примерно таким же. Может только скорость обучения немножечко выросла.
Я сделал для себя вывод:
не стоит пытаться подбирать кернелы, это занимает много моего времени, к тому же их размер очень сильно зависит от размера входа. При размере 28*28 — это матрица 3*3 или 5*5, при 256*256 — лучше работает 7*7. Можно, конечно иметь разные заготовленые размеры, но зачем? На скорость обучения это хоть и влияет, но не так чтоб прям сильно. Да и для каждой задачи лучше подбирать оптимальное количество кернелов. Для MNIST достаточно 16-ти, а то и 8-ми, для сложных образов 32 и выше.
Если не хочется тратить время на это, а хочется взять что-то готовое, то как вариант взять Inception-v3, её фича экстрактор очень даже хорош, и добавить нужных классов без переобучения экстрактора, такой метод называется fine-tuning.
Главное - много
картиноккода!Спасибо! Интересно было почитать о потоковой передаче данных между бэком и фронтом. 🚀
Несколько месяцев пользую API, у меня даже 4 версия до сих пор недоступна :(
И это доступно рядовому пользователю? Может это какое-нибудь специальное предложение для компаний?
Большие лингвистические модели не умеют сохранять что-либо. Они генерируют предсказания только на основе входных данных. Что касается реализации переключения контекста - наверняка можно так сделать, например, используя api, но это будет что-то вроде переключения между вкладками браузера, т.е. доступ к контенту одной вкладки из другой получить не удастся, а раздельно - пожалуйста. Кстати, список диалогов у ChatGpt - это почти то же самое.
в новостях писали, видел тут https://about.fb.com/news/2023/08/code-llama-ai-for-coding/
где скачать - не подскажу, не искал
Вы правы, ошибся, сейчас поправлю. Спасибо! Человеческий фактор))
это легко проверяется инфой из открытых источников
Я заметил, что у нас Афина не очень популярна, мало инфы на русском, а вот западные компании ее активно используют.
И да, есть один вопрос, какой движок для 2D порекомендуете именно вы?
Не обязательно простой, можно и с высоким порогом входа.
Возможно это как-то настраивается?
на самом деле мне, например, как новичку, очень интересно сравнение фрэймворков с OpenGL. Еще интересно сравнение производительности, удобства и прочего у канваса и OpenGL. Я прекрасно понимаю, что канвас далеко позади, но в определенных кейсах не хочется подключать большие либы к проекту.
Хотелось бы продолжения про игровую анимацию.
Я сделал для себя вывод:
не стоит пытаться подбирать кернелы, это занимает много моего времени, к тому же их размер очень сильно зависит от размера входа. При размере 28*28 — это матрица 3*3 или 5*5, при 256*256 — лучше работает 7*7. Можно, конечно иметь разные заготовленые размеры, но зачем? На скорость обучения это хоть и влияет, но не так чтоб прям сильно. Да и для каждой задачи лучше подбирать оптимальное количество кернелов. Для MNIST достаточно 16-ти, а то и 8-ми, для сложных образов 32 и выше.
Если не хочется тратить время на это, а хочется взять что-то готовое, то как вариант взять Inception-v3, её фича экстрактор очень даже хорош, и добавить нужных классов без переобучения экстрактора, такой метод называется fine-tuning.
Вот линка на инструкцию:
https://www.tensorflow.org/tutorials/image_retraining