Pull to refresh

Comments 16

Пользователь социальной сети X под никнеймом stasia_apk рассказала историю создания мобильной игры с помощью только нейросетей.

По ссылке в твиторе написано: "Как я к этому пришла - ниже!", - а ниже только один скриншот и ничего нет больше.

Арт для игры создавали с помощью Midjourney и нейросети, преобразующей изображения в 3D-модели. На каждую модель выходило 400–600 полигонов, но были проблемы с UV-развёрткой. Анимации также создавали с помощью нейросети и редактора Blender.

Как создавали-то? Интересно же.

Видимо так

Твиттер нынче требует залогиниться чтобы смотреть комментарии. Либо thread reader ссылка выше.

Я даже читать ихний девлог не буду, ибо:

  1. математика - это абстракция

  2. любая программа - это математические вычисления

  3. чтобы писать код на каком-то уровне абстракции, надо уметь абстрагироваться как минимум на один уровень выше, что доступно не всем людям

  4. очевидно, что написали как обычно любая галера пишет, попросили чатгпт найти и поправить буги (буги-вуги хе-хе)

  5. профит и повод говностатьи.

Уже успел прочитать об этом, на самом деле довольно неплохо. Я бы даже сам попробовал заняться подобным из интереса.

Думаете это может быть правдой? У меня что гпт что клод, примерно одинаково выдают нерабочий код даже в простейших случаях, ну или рабочий но делающий не совсем то что надо, и дотянуть его до релиза не вмешиваясь и не понимая как он работает просто копируя туда обратно вывод с ошибками это прям челендж. Я уж молчу про то что запускать код для проверки, собирать его это тоже уметь надо.

Тут как любым инструментом, пользоваться надо уметь. Вон например в рисовалках даже профессия успела появится, промт инженера. Конечно вымерла из-за того что ИИ научили делать промты от чего рекорд по выпилу. Но сам факт, тоже с ГПТ и Клоудом. Правельно составленный запрос пол победы, вторая половина верные вопросы потом

Там конкретно написано, что она вообще не умеет кодить. Так что тоже считаю что это немного обман. С помощью клода, большинство кода, и понимая что там происходит - да, верю, но в такой форме - ну очень сомневаюсь.

Так там и написано, что в код вручную правки вносились, модельки с помощью Blender допиливали. Просто заголовок, как обычно желтушный.

Странно. Claude очень хороший код даёт, намного лучше чем у ChatGPT и тем более Gemini. Он единственный смог реализовать фильт Кувахары, алгоритм Форчуна и WFC, причём чуть ли не с первого запроса.
А по сабжу, она очень мало в техническом плане расписала, больше про её жизненный путь и хотелки. Про то, какие нейронки для генерации моделек и музыки использовала, и как всё вместе собирала - ни слова.

Обычный он код даёт не надо себя накручивать. Последнее что с ним делал - банальный парсер. Надо было вывод команды edge-tts --list-voices загнать в словарь, так что б пары получились нормальные. Это был цирк с конями. Конь сильно упирался и попал в петлю. Выглядело это так будто он не в состоянии запомнить или понять больше 2 условий. Пришлось вести его за ручку. В итоге бесплатные запросы закончились а подписки у меня нет, пришлось доделывать в гугл джемини.

Не пользуйтесь GPT. Пользуйтесь Claude 3.5 и Codeium.
Я на днях сказал Claude: Вот тебе url страницы на гитхабе, там в тексте описан интерфейс TypeScript. Напиши мне такие структуры на Rust, чтобы serde-json сериализовал их в JSON, из которого получался бы объект, соответствующий тому интерфейсу.

Сделала со второй попытки, пришлось только намекнуть, что все поля там необязательные.

При этом та же Claude не смогла никак сделать задачу: "Напиши функцию, которая взяла бы строку и удалила из неё все звёздочки, но только те, которых чётное число внутри одного абзаца. При этом игнорируй звёздочки, которые идут подряд." И примеры давал, и юниттест написал - всё время не то удаляет, или вообще ничего. При этом модель упорно пыталась сделать функцию, редактирующую массив символов прямо во время итерации по нему, а это очень сложно, а на Расте ещё и медленно. Плюнул, написал руками в два прохода: сначала нахожу индексы нужных звёздочек, потом копирую в новую строку всё, кроме ненужных звёздочек, работы на две минуты было, LLM я пинал дольше.

Чувствую, что с опытом придёт понимание того, что стоит спросить у LLM готовое, а что можно даже не затеваться. Но пока что приятно удивляет чаще, чем неприятно.

Но дисклеймер: я большой любитель типизации: Rust, Typescript, и даже Python у меня с явными типами везде. Это очень помогает перепроверить за LLM, что он там наговнокодил.

С задачей про функцию локальный imat 4-х битный DeepSeek coder v2 (236b версия, не lite) справился с первого раза, но не вашим решением.

Примерно вот так
def remove_even_stars(text: str) -> str:
    paragraphs = text.split('\n')
    result_paragraphs = []
    
    for paragraph in paragraphs:
        stars = 0
        non_consecutive_stars = []
        
        for i, char in enumerate(paragraph):
            if char == '*':
                if i > 0 and paragraph[i-1] != '*':
                    stars += 1
                else:
                    non_consecutive_stars.append('*')
            else:
                non_consecutive_stars.append(char)
        
        if stars % 2 == 0:
            result_paragraphs.append(''.join(non_consecutive_stars).replace('*', ''))
        else:
            result_paragraphs.append(paragraph)
    
    return '\n'.join(result_paragraphs)

Для Раста попросил отдельно поработать со звёздочками как у вас написано, решение оцените сами.

А так с Rust
fn remove_even_stars(text: &str) -> String {
    let paragraphs = text.split('\n');
    let mut result_paragraphs = Vec::new();
    
    for paragraph in paragraphs {
        let chars: Vec<char> = paragraph.chars().collect();
        let mut star_indices = Vec::new();
        
        for (i, &ch) in chars.iter().enumerate() {
            if ch == '*' {
                if i > 0 && chars[i - 1] != '*' {
                    star_indices.push(i);
                }
            }
        }
        
        if star_indices.len() % 2 == 0 {
            let mut result = String::new();
            let mut last_index = 0;
            
            for &index in &star_indices {
                result.push_str(&paragraph[last_index..index]);
                last_index = index + 1;
            }
            result.push_str(&paragraph[last_index..]);
            result_paragraphs.push(result);
        } else {
            result_paragraphs.push(paragraph.to_string());
        }
    }
    
    result_paragraphs.join("\n")
}

В целом от DeepSeek v2 впечатления отличные. Конечно выжирает почти всю оперативку: ~130 из 192гб, генерит в районе 0.9-2.2 tok/s, но! запускается локально и работает. Ну и огромное контекстное окно 128к, которое правда не лезет в мою оперативку уже. Из минусов - может по неизвестной причине зависнуть, то ли контекст не нравится, то ли ещё что, но бывает. Помогает создать новый чат. С тем же Gemma 27B Instruct (который я запускаю в int8 вообще), Gemma Coder или Llama 70B не сравнить. С клауд-сетками дела не имел, увы.

Не знаю, можно ли считать скриншот пруфом локального запуска, но пусть так
как-то так выглядит из LM Studio
как-то так выглядит из LM Studio

Подвох в этой фразе "изредка вручную вносили правки ". Сейчас тоже пишу приложение использую клод очень широко, правки вношу постоянно (я профессиональный программист) и делаю море других вещей, который клод не сделает. Что-то сделать более менее сложное и коммерческое пока нельзя, без ручного редактирования кода и понимания вообще что происходит в коде.

А геймплей то нейросеть придумала? Если нет то разработано не полностью с помощью нейросетей

Sign up to leave a comment.

Other news