Информация
- В рейтинге
- 2 096-й
- Зарегистрирован
- Активность
Специализация
Data Scientist, Application Developer
Lead
Maths
Applied math
Python
Algorithms and data structures
Object-oriented design
Software development
Code Optimization
Visual Studio
Git
Linux
Учту, спасибо и вам удачи!
Чекнул ваш ТГ, вижу вы тоже занимаетесь на стыке прикладного CS в области нейробиологии. Какова конечная цель исследований?
В целом занимаюсь задачей в области BCI устройств.
Я разбирал CTM с целью понять, насколько хорошо данная архитектура ложится под задачу: обучение на размеченных ЭЭГ данных с целью формирования модели EEG_to_Text. В данной момент это моя научная работа для маги 😅
CTM расширяет классические идеи памяти и спайковой динамики и вносит три ключевых отличия:
1. Внутреннее рекуррентное время, независимое от длины входной последовательности, позволяющее модели «думать» произвольное число тиков;
2. Neuron-Level Models — индивидуальные MLP-функции, которые учатся на собственной временной истории нейрона и реализуют адаптивную фильтрацию, недоступную ни LSTM, ни трансформерам;
3. Матрица синхронности используется как прямое латентное пространство, так что сама ко-активация нейронов становится признаками для вывода.
В совокупности это превращает временную корреляцию из побочного эффекта (как в SNN) в управляемый вычислительный ресурс и обеспечивает интерпретируемую глубину рассуждения — то, чего нет у существующих архитектур. Поэтому работа CTM скорее — шаг к конвергенции биологического и искусственного интеллекта, чем «ещё одна память в RNN».
Знаете, когда люди говорят, что мои обзоры "просто написаны LLM", это всё равно, что сказать хирургу: "Да вы не лечите, у вас просто хороший скальпель!"
В мире, где объем научной информации удваивается каждые несколько лет, отказываться от таких инструментов — это всё равно что настаивать на счетах вместо калькулятора. Использование LLM не делает нас менее настоящим ученым, а скорее показывает, что мы умеем эффективно работать с современными технологиями. В конце концов, важен результат и его ценность, а не то, какой карандаш вы использовали для записи своих мыслей.
Китайцы вообще молодцы, в условиях дефицита железа, они придумывают новые технологии оптимизации, что в свою очередь порождает технический прогресс. Чего только стоит Multi-Head Latent Attention (MLA).
Нет, две недели сидел, писал. Понятное дело не без помощи ИИ, но в целом, тяжелый-кропотливый труд.
Вот похожей пример на классической архитектуре БЕРТА: https://github.com/Verbasik/ML_projects/tree/main/Classification_of_text
Думаю, что modernBERT может справиться лучше.
Насколько хорошо? С архитектурной стороны в любом случае лучше... 😁
https://huggingface.co/clapAI/modernBERT-large-multilingual-sentiment