Комментарии 16
Пользователь социальной сети X под никнеймом stasia_apk рассказала историю создания мобильной игры с помощью только нейросетей.
По ссылке в твиторе написано: "Как я к этому пришла - ниже!", - а ниже только один скриншот и ничего нет больше.
Арт для игры создавали с помощью Midjourney и нейросети, преобразующей изображения в 3D-модели. На каждую модель выходило 400–600 полигонов, но были проблемы с UV-развёрткой. Анимации также создавали с помощью нейросети и редактора Blender.
Как создавали-то? Интересно же.
Видимо так
Можно посмотреть весь тред с помощью Threadreader
Твиттер нынче требует залогиниться чтобы смотреть комментарии. Либо thread reader ссылка выше.
Я даже читать ихний девлог не буду, ибо:
математика - это абстракция
любая программа - это математические вычисления
чтобы писать код на каком-то уровне абстракции, надо уметь абстрагироваться как минимум на один уровень выше, что доступно не всем людям
очевидно, что написали как обычно любая галера пишет, попросили чатгпт найти и поправить буги (буги-вуги хе-хе)
профит и повод говностатьи.
Уже успел прочитать об этом, на самом деле довольно неплохо. Я бы даже сам попробовал заняться подобным из интереса.
Думаете это может быть правдой? У меня что гпт что клод, примерно одинаково выдают нерабочий код даже в простейших случаях, ну или рабочий но делающий не совсем то что надо, и дотянуть его до релиза не вмешиваясь и не понимая как он работает просто копируя туда обратно вывод с ошибками это прям челендж. Я уж молчу про то что запускать код для проверки, собирать его это тоже уметь надо.
Тут как любым инструментом, пользоваться надо уметь. Вон например в рисовалках даже профессия успела появится, промт инженера. Конечно вымерла из-за того что ИИ научили делать промты от чего рекорд по выпилу. Но сам факт, тоже с ГПТ и Клоудом. Правельно составленный запрос пол победы, вторая половина верные вопросы потом
Так там и написано, что в код вручную правки вносились, модельки с помощью Blender допиливали. Просто заголовок, как обычно желтушный.
Странно. Claude очень хороший код даёт, намного лучше чем у ChatGPT и тем более Gemini. Он единственный смог реализовать фильт Кувахары, алгоритм Форчуна и WFC, причём чуть ли не с первого запроса.
А по сабжу, она очень мало в техническом плане расписала, больше про её жизненный путь и хотелки. Про то, какие нейронки для генерации моделек и музыки использовала, и как всё вместе собирала - ни слова.
Обычный он код даёт не надо себя накручивать. Последнее что с ним делал - банальный парсер. Надо было вывод команды edge-tts --list-voices
загнать в словарь, так что б пары получились нормальные. Это был цирк с конями. Конь сильно упирался и попал в петлю. Выглядело это так будто он не в состоянии запомнить или понять больше 2 условий. Пришлось вести его за ручку. В итоге бесплатные запросы закончились а подписки у меня нет, пришлось доделывать в гугл джемини.
Не пользуйтесь GPT. Пользуйтесь Claude 3.5 и Codeium.
Я на днях сказал Claude: Вот тебе url страницы на гитхабе, там в тексте описан интерфейс TypeScript. Напиши мне такие структуры на Rust, чтобы serde-json сериализовал их в JSON, из которого получался бы объект, соответствующий тому интерфейсу.
Сделала со второй попытки, пришлось только намекнуть, что все поля там необязательные.
При этом та же Claude не смогла никак сделать задачу: "Напиши функцию, которая взяла бы строку и удалила из неё все звёздочки, но только те, которых чётное число внутри одного абзаца. При этом игнорируй звёздочки, которые идут подряд." И примеры давал, и юниттест написал - всё время не то удаляет, или вообще ничего. При этом модель упорно пыталась сделать функцию, редактирующую массив символов прямо во время итерации по нему, а это очень сложно, а на Расте ещё и медленно. Плюнул, написал руками в два прохода: сначала нахожу индексы нужных звёздочек, потом копирую в новую строку всё, кроме ненужных звёздочек, работы на две минуты было, LLM я пинал дольше.
Чувствую, что с опытом придёт понимание того, что стоит спросить у LLM готовое, а что можно даже не затеваться. Но пока что приятно удивляет чаще, чем неприятно.
Но дисклеймер: я большой любитель типизации: Rust, Typescript, и даже Python у меня с явными типами везде. Это очень помогает перепроверить за LLM, что он там наговнокодил.
С задачей про функцию локальный imat 4-х битный DeepSeek coder v2 (236b версия, не lite) справился с первого раза, но не вашим решением.
Примерно вот так
def remove_even_stars(text: str) -> str:
paragraphs = text.split('\n')
result_paragraphs = []
for paragraph in paragraphs:
stars = 0
non_consecutive_stars = []
for i, char in enumerate(paragraph):
if char == '*':
if i > 0 and paragraph[i-1] != '*':
stars += 1
else:
non_consecutive_stars.append('*')
else:
non_consecutive_stars.append(char)
if stars % 2 == 0:
result_paragraphs.append(''.join(non_consecutive_stars).replace('*', ''))
else:
result_paragraphs.append(paragraph)
return '\n'.join(result_paragraphs)
Для Раста попросил отдельно поработать со звёздочками как у вас написано, решение оцените сами.
А так с Rust
fn remove_even_stars(text: &str) -> String {
let paragraphs = text.split('\n');
let mut result_paragraphs = Vec::new();
for paragraph in paragraphs {
let chars: Vec<char> = paragraph.chars().collect();
let mut star_indices = Vec::new();
for (i, &ch) in chars.iter().enumerate() {
if ch == '*' {
if i > 0 && chars[i - 1] != '*' {
star_indices.push(i);
}
}
}
if star_indices.len() % 2 == 0 {
let mut result = String::new();
let mut last_index = 0;
for &index in &star_indices {
result.push_str(¶graph[last_index..index]);
last_index = index + 1;
}
result.push_str(¶graph[last_index..]);
result_paragraphs.push(result);
} else {
result_paragraphs.push(paragraph.to_string());
}
}
result_paragraphs.join("\n")
}
В целом от DeepSeek v2 впечатления отличные. Конечно выжирает почти всю оперативку: ~130 из 192гб, генерит в районе 0.9-2.2 tok/s, но! запускается локально и работает. Ну и огромное контекстное окно 128к, которое правда не лезет в мою оперативку уже. Из минусов - может по неизвестной причине зависнуть, то ли контекст не нравится, то ли ещё что, но бывает. Помогает создать новый чат. С тем же Gemma 27B Instruct (который я запускаю в int8 вообще), Gemma Coder или Llama 70B не сравнить. С клауд-сетками дела не имел, увы.
Не знаю, можно ли считать скриншот пруфом локального запуска, но пусть так
Подвох в этой фразе "изредка вручную вносили правки ". Сейчас тоже пишу приложение использую клод очень широко, правки вношу постоянно (я профессиональный программист) и делаю море других вещей, который клод не сделает. Что-то сделать более менее сложное и коммерческое пока нельзя, без ручного редактирования кода и понимания вообще что происходит в коде.
А геймплей то нейросеть придумала? Если нет то разработано не полностью с помощью нейросетей
В социальной сети X рассказали историю создания мобильной игры, которую полностью разработали с помощью нейросетей