"Опенсурсная" лицензия это цирк не имеющая с опенсорсом ничего общего. Ни open, ни даже source. Тем более ни open source ака
Самое смешное яндекс не несёт никакую ответственность, но как пользователь "Вы обязуетесь защитить Яндекс и Аффилированных лиц". Хорошая позиция. Теперь Яндекс может запустить модель на своём железе и не платить за все электричество - будут судить, претензии отправятся пользователям.
Поэтому мы можем наблюдать, как размер топовых БЯМ моделей переваливает за триллион параметров, но сравнение их с моделями на 2 порядка меньшими по размеру не показывает столь же значительной разницы в качестве генерации.
Нет, не можем как только отходим от hello world. GPT4o рвет все модели (а осебенно модели на два порядка ниже, то есть ≈10B) в том же mmlu pro.
Если бы мы могли это наблюдать такого хайпа вокруг gpt 4, gpt 4o бы не было
Блин, я себя LARP'ером бывает чувствую когда что-то пишу. Но здесь вообще какая то жесть . Для верилога можно послать на https://hdlbits.01xz.net/wiki/Step_one и пока прогресс не будет показывать, прогонять. Про программирование - advent of code. Пусть учится или хоть что-то решать или не тратить чужое время
Sierra'у ни разу не жалко. Ладно в нормальных квестах можно со всеми переговорить. Но в каком нибудь Gabriel knight если не придёшь в парк в нужное время, продавец хот догов уйдёт и игра станет не проходимой. Игры они делали не ради хороших загадок, а чтобы им звонили на горячую линию. Sierra предвидели микротранзакции. Хорошо, что не дожили
Из туториалов мне больше всего нравится Illustrated Transformer. https://jalammar.github.io/illustrated-transformer/ Она очень подробно объясняет саму суть, и математика там по шагам расписана с числами и иллюстрациями, показывающие размерность данных.
Есть ли у вас предложения по повышению креативности
Рандомизация параметров. Я каждые 5-50 токенов меняю температуру, top p, top k на плюс минус несколько % относительно базовых значений. (сэмплеры писать лень чтобы делать это на каждый токен). Llama.cpp сейчас тоже разрабатывают сэмплер на изменение температуры в зависимости от "уверенности" модели
Существуют ли модели LLM, которые предоставляют информацию о вероятности токенов в своих ответах?
Во-первых платёжные системы подобное не очень любят, во вторых какой нибудь умник решит запостить на твиттер скриншот запроса "Как превратить ясли в бордель" и см во-первых
Тут два пути либо платить за chatgpt enterprise подписку где тебе говорят что на данных тренировать не будут, либо использовать локальные модели, где на слово верить не надо, но надо хороший пк и в любом случае хз как обстоят дела с лицензиями - гпт официально не купишь, даже если локальная foss(mixtral например имеет лицензию apache), может в госпитале все должно быть застраховано, лицензировано на бумаге и покрываться поддержкой 24/7 чтобы не получить во время аудита
У них релиз в феврале. Эта часть сейчас должна активно отшлифовываться и полироваться и дорабатываться, а не отсутствовать. То что у них нет геймплея означает что у них нет игры. Значит QA самой игры даже не начался. Значит они либо мега крутые разрабы и сделают сложную часть проекта с первого раза без ошибок либо игроки будут фактически альфатестерами. И это плохо.
Это контринтуитивно, что редактор открыт, а редактировать тут же нельзя - что ж это за редактор такой? Рискну предположить, что редактор который понимает, что так не бывает, чтобы файл открылся и, о чудо, курсор стоял на том месте, которое нужно редактировать. До этого места нужно добраться. А добираются в виме до нужного места через normal режим обычно. Там для этого почти вся клавиатура используется.
И они не являются оперсорсными.
"Опенсурсная" лицензия это цирк не имеющая с опенсорсом ничего общего. Ни open, ни даже source. Тем более ни open source ака
Самое смешное яндекс не несёт никакую ответственность, но как пользователь "Вы обязуетесь защитить Яндекс и Аффилированных лиц". Хорошая позиция. Теперь Яндекс может запустить модель на своём железе и не платить за все электричество - будут судить, претензии отправятся пользователям.
А перворожденных Яндексом еще не надо называть?
А ведь YaLM нормальным опенсорсом был.
Если бы. Чаще берут термин(например СНИЛС) и пишут его как попало - то snils, то cneelc, то x, то inipa.
Нет, не можем как только отходим от hello world.
GPT4o рвет все модели (а осебенно модели на два порядка ниже, то есть ≈10B) в том же mmlu pro.
Если бы мы могли это наблюдать такого хайпа вокруг gpt 4, gpt 4o бы не было
Статья напомнила рекламу против vpn.
Автор, когда ждать про ужасы https?
Они могут видеть по разному. И делать картины в "нормальном" стиле. Сюрреализм их выбор, от которого они могут отказаться. Нейросеть не может
Добро пожаловать в реальную жизнь
Блин, я себя LARP'ером бывает чувствую когда что-то пишу. Но здесь вообще какая то жесть .
Для верилога можно послать на
https://hdlbits.01xz.net/wiki/Step_one и пока прогресс не будет показывать, прогонять. Про программирование - advent of code. Пусть учится или хоть что-то решать или не тратить чужое время
Sierra'у ни разу не жалко. Ладно в нормальных квестах можно со всеми переговорить. Но в каком нибудь Gabriel knight если не придёшь в парк в нужное время, продавец хот догов уйдёт и игра станет не проходимой. Игры они делали не ради хороших загадок, а чтобы им звонили на горячую линию. Sierra предвидели микротранзакции. Хорошо, что не дожили
Что-то не то. Как минимум для авторизации смс не нужен доступ к ним.
Короче, в лучшем случае блоатваре.
Есть же LattePanda Sigma. (Она правда стоит около 80к)
Вот ещё классика https://m.youtube.com/watch?v=-VsmF9m_Nt8
Хорошо передаёт ощущение когда слышишь незнакомый диалект в первый раз
Из туториалов мне больше всего нравится Illustrated Transformer.
https://jalammar.github.io/illustrated-transformer/
Она очень подробно объясняет саму суть, и математика там по шагам расписана с числами и иллюстрациями, показывающие размерность данных.
Рандомизация параметров. Я каждые 5-50 токенов меняю температуру, top p, top k на плюс минус несколько % относительно базовых значений. (сэмплеры писать лень чтобы делать это на каждый токен).
Llama.cpp сейчас тоже разрабатывают сэмплер на изменение температуры в зависимости от "уверенности" модели
Локальные модели
Во-первых платёжные системы подобное не очень любят, во вторых какой нибудь умник решит запостить на твиттер скриншот запроса "Как превратить ясли в бордель" и см во-первых
Тут два пути либо платить за chatgpt enterprise подписку где тебе говорят что на данных тренировать не будут, либо использовать локальные модели, где на слово верить не надо, но надо хороший пк и в любом случае хз как обстоят дела с лицензиями - гпт официально не купишь, даже если локальная foss(mixtral например имеет лицензию apache), может в госпитале все должно быть застраховано, лицензировано на бумаге и покрываться поддержкой 24/7 чтобы не получить во время аудита
Народ уже поговаривает о менее чем 1 битной квантизации https://github.com/ggerganov/llama.cpp/issues/4445
У них релиз в феврале. Эта часть сейчас должна активно отшлифовываться и полироваться и дорабатываться, а не отсутствовать.
То что у них нет геймплея означает что у них нет игры. Значит QA самой игры даже не начался. Значит они либо мега крутые разрабы и сделают сложную часть проекта с первого раза без ошибок либо игроки будут фактически альфатестерами. И это плохо.
Нет сравнения с чем-то типа "Please provide a detailed answer"