Обновить
0

Пользователь

-0,1
Рейтинг
Отправить сообщение

Очень подробно, в некоторых местах даже чрезмерно. Но интересный момент: не монотонное уменьшение ошибки по эпохам оставлено без внимания.

При наличии интернета использование llama это только игрушка, медленная и с не современной памятью. При наличии интернета бесплатные GigaChat, QWen, DeepSek Gogle Ai решают все проблемы быстрее и точнее. Но детали настроек представляют несомненный интерес.

Типичная для совковой промышленности ситуация, когда конкуренция, стремление закрыть план или получить доход ломает логику.

Любопытно, где вы так хорошо ознакомились с результатами Пригожина.

Самая простая задача: один лифт, случайный по Пуассону приход на первый этаж, случайный этаж назначения (равномерный 2.. верхний), Случайный выход на н-ый этаж для спуска на первый. Минимизировать среднее время ожидания.

Интересно было бы посмотреть, как ведет себя максимальная по обучающему набору ошибка.

Хотелось бы объяснения "на пальцах", чем движение плиты на катках, отличается от движения по наклонной плоскости без трения.

Насколько необходима именно Ollama. Часто рекомендуется обходится llama.cpp

Хотелось бы подробной инструкции. Имея мало опыта установил docker+llama-server+open-WebUi Сначала получилось, даже получил резюме двух docx файлов, вполне читаемое. Но мешал фишка "доступно обновление", обновился open-webui до 0.7.0 и все грохнулось. В окне все как надо, но при любом вопросе "500 нет модели name:latest" здесь name имя модели, а откуда взялся latest не понятно. Откат open-webui не исправил ситуацию.

Покопался в интернете и нашел NEAT https://habr.com/ru/articles/910878/ которую я раньше отказался читать из-за не выловленной автором опечатки. Тоже генетическое построение для поиска оптимальной сети. По моему просто добавлять и удалять узлы и связи, оценивая увеличение точности достаточно. Использовать биологическую терминология не обязательно. Главное алгоритмы добавления, оценка точности и определения конца процесса уточнения.

Интересная мысль, а не годится ли такая схема подбора структуры вычислений для построения оптимальных сетей?

e:>python -V
Python 3.13.7

e:>pip install thefittest==0.2.7
ERROR: Ignored the following versions that require a different python version: 0.1.10 Requires-Python >=3.7,<3.11; 0.1.11 Requires-Python >=3.7,<3.11; 0.1.13 Requires-Python >=3.7,<3.11; 0.1.14 Requires-Python >=3.7,<3.11; 0.1.15 Requires-Python >=3.7,<3.11; 0.1.9 Requires-Python >=3.7,<=3.10; 0.2.0 Requires-Python >=3.7,<3.11; 0.2.1 Requires-Python >=3.7,<3.12; 0.2.2 Requires-Python >=3.7,<3.12; 0.2.3 Requires-Python >=3.7,<3.12; 0.2.4 Requires-Python >=3.7,<3.12; 0.2.5 Requires-Python >=3.7,<3.12; 0.2.6 Requires-Python >=3.7,<=3.12; 0.2.7 Requires-Python >=3.7,<=3.13
ERROR: Could not find a version that satisfies the requirement thefittest==0.2.7 (from versions: 0.1.7, 0.1.8)

Примеры требуют очень старую версию питона, что не позволяет проверить результаты. Хотелось бы также сравнить с подходом к сетям КАН и увидеть другие методы аппроксимации. Подход же, в котором само выстраивается группа аппроксимирующих символьных функций очень интересен. До сих пор мне был известен только метод Прони, в котором использовалась комбинация exp(b*t)*(c*sin(a*t)+d*cos(a*t).

Откуда дерется индекс слова? Почему 42 это яблоко?

Не рассмотрено отслеживание movingAverage.

>Программа MAPLE, аналог "математика", на запрос: dsolve(a(x)*diff(y(x),x,x)+b(x)*diff(y(x),x)+c(x),y(x)); дает формулу для вычисления решения. Я не могу ее привести из-за неумения вводить формулы с интегралами в комментарий

Хотелось бы понять: кривые полезности рассчитываются или это просто иллюстрация наших размышлений.

Пора объединить математическую программу типа Математика или Maple с LLM, тогда может быть вопросов как складывают числа будет меньше.

А может все упростить и работать по своей теме, используя ИИ как одного из работающего по той же теме, то есть задавая ему вопросы и анализируя ответы. Надо ли на него ссылаться, это сложный личный вопрос. Вы ссылаетесь на помощь при публикации?

Второй вопрос об обвинениях, что статья написана ИИ. По моему, это надо игнорировать, не обращать внимания и продолжать работать по своей теме. Аналог с реакцией на завиральные работы. На заре моей научной деятельности возникла квази-наука "наукометрия". Чушь страшная, но я вынес один ценный рецепт из нее - завиральные работы надо замалчивать, тогда они тихо потонут в массиве вновь поступающих публикаций.

Критики много, а хотелось бы ссылок на правильное изложение проблемы установки локального ИИ.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Аналитик по обеспечению качества, Аналитик по данным
Старший