Как стать автором
Обновить
15
2.5

Tech Lead Ai Agents, Engineer Ai, Researcher

Отправить сообщение

Учту, спасибо и вам удачи!

Чекнул ваш ТГ, вижу вы тоже занимаетесь на стыке прикладного CS в области нейробиологии. Какова конечная цель исследований?

В целом занимаюсь задачей в области BCI устройств.

Я разбирал CTM с целью понять, насколько хорошо данная архитектура ложится под задачу: обучение на размеченных ЭЭГ данных с целью формирования модели EEG_to_Text. В данной момент это моя научная работа для маги 😅

CTM расширяет классические идеи памяти и спайковой динамики и вносит три ключевых отличия:
1. Внутреннее рекуррентное время, независимое от длины входной последовательности, позволяющее модели «думать» произвольное число тиков;
2. Neuron-Level Models — индивидуальные MLP-функции, которые учатся на собственной временной истории нейрона и реализуют адаптивную фильтрацию, недоступную ни LSTM, ни трансформерам;
3. Матрица синхронности используется как прямое латентное пространство, так что сама ко-активация нейронов становится признаками для вывода.

В совокупности это превращает временную корреляцию из побочного эффекта (как в SNN) в управляемый вычислительный ресурс и обеспечивает интерпретируемую глубину рассуждения — то, чего нет у существующих архитектур. Поэтому работа CTM скорее — шаг к конвергенции биологического и искусственного интеллекта, чем «ещё одна память в RNN».

Знаете, когда люди говорят, что мои обзоры "просто написаны LLM", это всё равно, что сказать хирургу: "Да вы не лечите, у вас просто хороший скальпель!"

В мире, где объем научной информации удваивается каждые несколько лет, отказываться от таких инструментов — это всё равно что настаивать на счетах вместо калькулятора. Использование LLM не делает нас менее настоящим ученым, а скорее показывает, что мы умеем эффективно работать с современными технологиями. В конце концов, важен результат и его ценность, а не то, какой карандаш вы использовали для записи своих мыслей.

Китайцы вообще молодцы, в условиях дефицита железа, они придумывают новые технологии оптимизации, что в свою очередь порождает технический прогресс. Чего только стоит Multi-Head Latent Attention (MLA).

Нет, две недели сидел, писал. Понятное дело не без помощи ИИ, но в целом, тяжелый-кропотливый труд.

Вот похожей пример на классической архитектуре БЕРТА: https://github.com/Verbasik/ML_projects/tree/main/Classification_of_text

Думаю, что modernBERT может справиться лучше.

Насколько хорошо? С архитектурной стороны в любом случае лучше... 😁

Информация

В рейтинге
2 096-й
Зарегистрирован
Активность

Специализация

Data Scientist, Application Developer
Lead
Maths
Applied math
Python
Algorithms and data structures
Object-oriented design
Software development
Code Optimization
Visual Studio
Git
Linux