Как стать автором
Обновить
88
-0.1
TedBeer @TedBeer

Пользователь

Отправить сообщение

Упомяну книги Нормана Дойджа - Пластичность мозга... и Мозг исцеляющий себя... Есть переводы на русский. Там приведена масса клинических примеров как люди излечивались или сильно улучшали жизнь после травм, с Паркинсоном, с Альцгеймером и прочее прочее. В отдельных случаях 90% мозга умерло, но за счет нейропластичности можно было развить и перепрофилировать то что осталось, чтобы восстановить или компенсировать утраченные функции. Да - нейроны не восстановились, но оставшихся было достаточно чтобы взять на себя утраченные функции. И вот тренировки и нужны были для восстановления и реорганизации связей. Очень рекомендую к прочтению.

не очевидно, тут уже надо в UX - сделать стрелочку-кнопочку "Поделиться"

Телефон рутили? Качество съемки сильно зависит от алгоритмов, а не только от сенсора. После включения рута на Сони отключались сонивские алгоритмы и качество становилось посредственным.
У меня было несколько смартфонов Сони и они снимали отлично, а слоумо так вообще бомба. Покажите мне какие еще телефоны могут в сломо? А Sony Xperia XZ может 960fps в режиме 720р

Юрий был, но честно говоря не помню фамилию-отчество. А это какой год? Я там был в 90-92гг. Время было интересное - перестройка, гкчп вот это все, плюс студенческая жизнь.

Речь про лабораторию в Новосибирском вычислительном центре. Нет с Ивахненко и Шлезингером я не сталкивался, а если и да, то не помню. Я ж был тогда студентом 2го курса, до науки было далеко, занимался сугубо практическими вещами.

Программа умножения матрицы на матрицу это не тоже самое что встроенный в язык оператор умножения матриц. Программу-то можно написать на любом языке, а вот реализация оператора может задействовать аппаратные ресурсы недоступные в конкретном языке.

Участвовал в ранней специализации и на первом курсе попал в ИТМиВТ (институт точной механики и вычислительной техники) где и разрабатывали Эльбрус-2. Попал в лабораторию где делали компилятор Эл76. Так вот, неупомянутой вами фичей языка, которой не было у языков того времени (ну или я о них не знаю), была поддержка матричной арифметики. Т.е. C=AxB могло быть не только с числами, но и с матрицами. А в матричных вычислениях математики СССР были на передовых ролях. И несмотря на меньшие доступные вычислительные возможности могли обсчитывать более крупные матрицы (а это нужно было для всяких обсчетов ядерных взрывов например, климатические модели)
А через пару лет (после службы в армии) уже попал в лабораторию искусственного интеллекта, где сделали программу, которая решала дифуры с недоопределенными данными. В этой же лабе работал и "отец русского фидо" Эрик Флетчер (в миру Женя Чуприянов) Эх молодость-молодость :)

Я писал про опенсорс порошковый принтер, который сыпет и ровняет порошок самостоятельно более 10 лет назад. Можете проверить, исходники и чертежи были на гитхаб, может еще живы или есть у кого-нибудь в форках - https://habr.com/ru/articles/148989/ Статья с файлами на тинге еще жива - https://www.thingiverse.com/thing:27794

В голосовалке нет пункта - всё устраивает и так. Пользуюсь мышами от Dell и HP. Все устраивает, а сторонние утилиты ставить на рабочий комп нельзя. На последней от HP есть аппаратное переключение на самой мышке - колесо крутится с щелчками или без по желанию. Начет идеальности трекпада я бы тоже подискутировал. С дефолтными установками, с которыми я сталкиваюсь на чужих компах, я им пользоваться не могу совершенно. На своем макбуке подстроил под себя и работает без проблем.

внизу барабана, под котами стоят магниты, а к ардуине подключён цифровой датчик Холла

Таки нет - в ролике сказано reed relay, а это просто геркон.

Попробуй микродозинг мухомора, говорят помогает. Своим опытом поделиться пока не могу, только приступаю
https://youtu.be/SiVdkZuqWPM

Я согласен, что квантизация - это зло. Но это не проблема сетки, а технические ограничения пользователей, которые хотят хоть как-то запустить ее. Грубо говоря - нет денег/времени/и пр на жену, поищу девушку на раз, нет денег на экскортницу, поищу что подешевле :-) А другие не готовы жертвовать качеством и ищут спутницу на всю жизнь. Хотел бы я иметь возможность прикупить NVidia A/H100, а может и не одну, но нет у меня лишних €20к и прямо сейчас нет задач адекватным таким расходам.

Вы правы, но много ли людей на свете знает когда родился ленин, как варить и есть борщ? Тут как раз важно чтобы ии научился осозновать свою ограниченность и давать негативные ответы, когда нет достаточных оснований для позитива. А вот если ии подключить к интернету (хотя бы к википедии), чтобы можно было находить фактический материал и встроить это в логику генерации ответов, не просто отсылка к ресурсу, а построение логических цепочек, то это повысит интеллектуальность сетей и ии шагнет на следующую ступеньку. И такие подвижки уже есть в свежих реализациях

в Китае расстреливают за коррупцию и что?! Думаете победили? Нет, до сих пор находится кого расстрелять.

Кстати DeepSeek-Coder readme содержит инструкцию как до-обучить модель, как готовить правильно данные - https://github.com/deepseek-ai/DeepSeek-Coder/blob/main/README.md#5-how-to-fine-tune-deepseek-coder

Imho для (до-)обучения нужно железо помощнее. Для тренировки ChatGpt3 OpenAI использовала

> 285,000 CPU cores, 10,000 GPUs and 400 gigabits per second of network connectivity for each GPU server,

Одна NVidia A100 стоит порядка 20к евро. Большие компании строят кластеры из тысяч таких плат. А сколько это еще электричества потребляет! В аренду можно взять виртуальный сервер с мощными GPU специально для тренировки модели. Видел цены порядка €3-6 за час работы (https://www.oracle.com/cloud/compute/gpu/) А уже натренированную сеть можно гонять локально на более слабом железе. Конкретных рецептов для вашей задачи еще не встречал. У меня на работе исследуют подобную возможность, но пока общедоступных для других команд результатов еще нет. Лучше поискать такое на Reddit (https://www.reddit.com/r/LocalLLaMA/ например) Там и народу побольше и доступность хорошего железа получше.

его намного сложнее перегреть до пожароопасной температуры

я бы не был столь самоуверен. https://ru.wikipedia.org/wiki/Парафин:

> Температура вспышки 200-240°C.

Пары парафина очень пожаро-взрыво опасны.

Графитовые стержни можно купить на али - https://vi.aliexpress.com/item/1005004042817260.html
А потом плавить металл

Следующим шагом должно стать изучение того, как раннее присутствие
разнородного материала Тейи в глубине Земли могло повлиять на внутренние
процессы нашей планеты, такие как тектоника плит.

А что тектоника плит еще жива? Еще лепят на нее заплатки, чтобы объяснить все те новые находки, которые эта теория не может объяснить, не говоря о том чтобы предсказать?

Информация

В рейтинге
Не участвует
Откуда
Almere-Stad, Flevoland, Нидерланды
Зарегистрирован
Активность