Pull to refresh
-3
0
Send message

За эту неделю 3 новых БЯМа высшего уровня в свободном доступе! И неделя ещё не кончилась :-)

Ну всё, надо устроить битву БЯМов. Кто кого переумничает.

межспутниковая лазерная связь

любопытно как это устроено - все со всеми в пределах прямой видимости общаются, или какие-то хитрые цепочки? Невозможно же нацеливать лазер на все спутники сразу.

Не кажется ли вам конструктивнее предложить свой правильный ответ, чем переходить на скандальный тон? У меня нет свободной NVIDIA A100, чтобы проверить самостоятельно, как вы хотите.

Постыдного в копировании чужого ответа нет ничего, я же не выдаю его за свой. Чужое мнение может быть и не правильным.

видимо, когда без человеков планета останется. ИИ будет сам всё двигать.

Такое ощущение от этих проектов, что у людей в руках молоток и они ищут чего бы им забить

Ну, в общем, у меня почти получилось пройти стопами героя :-) Почти, по тому, что готовая yolov8, обученная на COCO 128 с разрешением 320*320 не находит вообще ничего. А вот модель автора, обученная на том, чего у меня нет, обнаруживает электронные модули, чем-то похожие на то, что показывал ей автор (esp-01) :-) В общем, судите сами - это yolo8 COCO128 320*320:

Это модель автора:

В завершение - ещё раз большое спасибо Степану за огромную работу и интересное и полезное руководство! С моделями буду доразбираться.

Пока сделал 2 промежуточных вывода:

  1. Уменьшение буфера в 3 раза по сравнению с вашим практически не повлияло на скорость обучения (те же 5 дней на GTX1080 8Gb), не знаю как на качество

  2. Во время боя CUDA (видюха) таки используется, хотя и в 10% от того, как она загружена во время обучения.

Обучение закончилось ещё позвачера, дошёл до 7. Запустил arena.py, но пока магия не случилась :-)

Получил ошибку:

(base) xxx:~/arena$ python 
arena.py pygame 2.6.1 (SDL 2.28.4, Python 3.12.7) 
Hello from the pygame community. https://www.pygame.org/contribute.html 
Starting Battle Arena with parameters: 
Agent 0: agent.flax 
Agent 1: legacy-agents/eternal-firefly-57/agent.flax 
Normalization 0: obs-norm/obs_norm_legacy.npz 
Normalization 1: obs-norm/obs_norm_legacy.npz 
Save mode: none 
E0125 11:09:53.950128    7902 hlo_lexer.cc:443] Failed to parse int literal: 187511374564522277148574 

и сейчас экран выглядит так (чёрный пустой экран pygame, но в питоне идёт какая-то битва):

ошибка возникает вот тут:

batched_state = vmap(ba.reset)(key)

агент в checkpoints/имя агента/last

Всё, теперь понял, не из той папки брал, вижу, что действительно автосохраняются агенты

по-тихоньку обучение добралось уже до 7, так что не зря оставил учиться:

а вот с агентом вопрос возник. Заметил, что файл final/agent.flax не обновлялся с 19го числа, т.е. с начала обучения. То есть я сохраняю всё время один и тот же файл, а не агентов разной степени обученности, как я думал. А другого agent.flax я не вижу. И как, вообще, правильно останавливать обучение?

Сейчас так. Сохранил агентов 4.23, 4.9, 5.59, чтобы можно было им поспарринговать друг с другом и сравнить. Продолжаю обучение (сейчас 1.2М итераций). Да, по динамике похоже на вашу.

Устроить спарринг сейчас, я так понимаю, не получится, так как видюха занята обучением. Или можно прервать обучение и потом продолжить с той же точки? Поучу до 2М, наверное, как и вы.

сохранил агента с 4.23 и пока поучу ещё, чтобы у меня их было два - чтобы можно было сравнить :-)

Что-то выглядит так, что обучение закончилось, врядли стоит ожидать новый рост. При этом лучший ревард достигнут 2.3, а у вас 10+. Что же пошло не так?

через полсуток обучения выглядит так. Как будто уже научился:

Сейчас сравнил с вашим графиком - там на 250к как раз горизонтальная полочка, от которой потом рост. Видимо, я сейчас на ней и пройдено и вправду 1/8 пути

Information

Rating
Does not participate
Registered
Activity