Михаил @mikhanoid
ИММ УрО РАН
Information
- Rating
- Does not participate
- Registered
- Activity
Specialization
System Software Engineer, scientific programming
Scheme
C
Assembler
Linux
Maths
Julia
Compilers
Math modeling
Machine learning
Computer Science
ИММ УрО РАН
Если нам нужен реферат, то зачем напрягать такие титанические вычислительные ресурсы? Не проще ли просто найти уже готовый хороший? В чём экономический смысл нейросети, которая хорошо делает только то, что уже было многократно проделано?
Проблема в том, что невозможно слепо доверять сетке. В ответах на задание написать программу довольно много багов, часто тонких багов. То есть, уже нужно знать, как работает технология, чтобы оценить ответ.
Но ключевых слов сетка, конечно подкинет для дальнейшего поиска... Но что-то это на революцию, как мне кажется, не тянет. Google то же самое умеет.
Сетки относительно сносно генерируют потоки сознания на свободные темы, но программы должны быть гораздо строже структурированы. С этим пока проблемы.
Естественно.
Я не ищу никаких изъянов специально, просто спрашиваю о том, что мне интересно. Выдаётся фигня. Может быть, конечно, среднестатистическому человеку вся эта квантовая механика или монадические SAT-солверы по барабану, и он такие вопросы не задаёт, и его запросам чатботы удовлетворяют. Моим пока нет. Ну, и думаю, запросам большинства учёных тоже не удовлетворяет. Наука вообще плохую структуру имеет для обучения нейросетей. В науке редко есть 100500 текстов об одном и том же.
А за счёт чего он превзойдёт? Пока превосходства особого не наблюдается. Даже в написании простейших программ. А пределы возможностей электроники не за горами...
А где ресурсы-то взять? Чтобы обучать нейросетки, вам нужна уйма кода с коментариями к тому, что этот код делает. Такого кода очень мало. То есть, вам сначала нужно это ресурс создать, то есть, нанять программистов, чтобы они написали весь этот код. Супер, но тогда зачем нужна будет нейросеть, если код уже написан?..
Аналогично с любой специальной сферой деятельности. Картиночки - да, тексты на общие темы - возможно, более сложные и специальные вещи, о которых говорят несколько тысяч человек на всей Земле, да ещё и просто по почте - очень сомневаюсь.
Мне так ни один генератор и не смог нарисовать "мотоцикл в леопардовой раскраске под сильным дождём". Я думаю, такие специфичные запросы ни одна сетка не сможет нормально обрабатывать. Они могут выдавать "уже виденное" более или менее приемлемо, но новые концепты они не способны синтезировать. Это ограничение технологии.
Да почему? Довольно уже давно существуют "бредогенераторы", они выдавали вполне себе годный мусор, который надо было читать несколько минут, чтобы понять, что в нём нет смысла.
То есть, это не выглядело невозможным... Сейчас просто качество стало лучше.
Я напишу реферат в 2048 токенов, а бот не сможет ? Да, не... На самом деле, мы же имеем дело с "систематической ошибкой выжившего". Есть кучка людей, у которых случайно что-то с ботами получилось, они пишут об этом увлекательные статьи, но это не означает, что технология работает для всех. Я пробовал всякое потребовать от ботов по своей специальности - получается чушь. Общими фразами ChatGPT разговаривать сможет, но спросите его в чём проблема копенгагенской интерпретации квантовой механики - он начнёт зацикленную фигню выдавать. Просто по той причине, что нет достаточно материала для обучения по специальным темам...
У неё нет никакого опыта. Она же не обучается на новых диалогах
Нейросеть - это просто f(x), откуда у неё вообще может быть "захочет"? Какую f аппроксимировали, так она себя и будет вести. Не более
Чувствует и эмпатирует не сеть, а человек, который читает сгенерированный текст и анимирует его у себя в голове.
Цифровые нейронные сети очень далеки от реальной архитектуры нейрона. Возможно, чтобы проявлять феномен сознания эта архитектура и не нужна, кто знает? Но реальный нейрон гораздо более сложная штука, чем то, что есть в нейросетях. Более того, реальный нейрон - это физический процесс, с квантовыми эффектами, а не просто арифметическая машина, коим является нейрон цифровой.
Вставлю свои 5 копеек. 2 цента - это если нужно развлечь публику на Хабре. Если же нужен какой-то production, то нужно учесть время, необходимое для разбора того, что сеть нагенерирует. А ошибки там бывают весьма тонкие.
Даже если мы говорим о разработке кода, когда можно всё обмазать тестами или же требованиями привести формальные доказательства корректности, где гарантии, что у сети получится это сделать за конечное время? Особенно в нетиповых ситуациях.
Я так и не смог, например, уболтать Stable Diffusion сгенерировать мне "коней, обсуждающих сферических учёных в вакууме". Думаю, любой начинающий художник за десять баксов нарисовал бы мне такой скетч за полчаса.
А как Вы определите, что он "обошёл"?
Да он и без unsafe unsound, к сожалению: https://github.com/rust-lang/rust/issues/25860. Там целая коллекция...
Даже Ксавье Леруа допускает ошибки, программируя в Коке https://sf.snu.ac.kr/sepcompcert/compcertbugs/. Куда уж нам, простым смертным? Всегда можно накосячить в аксиомах, описывающих предметную область, в данном случае - модель памяти.
Hurd весьма громоздкое устаревшое микроядро. Я не знаю, как это у Касперского решено, но есть классические решения в Нейтрино (микроядро QNX) и в L4. Основная идея в том, чтобы сделать быстрые легковесные канады для IPC через домены общей памяти.
Спасибо, что поделились опытом и обратили внимание на некоторые аспекты языкостроительства.
Но возникает вопрос: а почему не Лисп? Там вообще ничего не нужно помнить. Ощущение, которое я испытал, написав на нём первую программу, сложнее `a + b`, было примерно такое: "Ух, ты! Да у меня процентов 50 рабочей памяти освободилось от особенностей языка под работу с самими алгоритмами!". Перешёл я на Лисп после смеси из Bash и C++. Это было физическое ощущение облегчения. У лиспов, конечно, есть свои недостатки, но это самый лёгкий для мозга язык из испробованных мной.
Если решите попробовать какой-нибудь Лисп (Scheme наиболее компактный из них, используется и в игровой индустрии), хотелось бы узнать о Вашеи опыте.
Да, в общем-то, всё просто: я всего лишь внимательно читаю документацию:
https://files.pine64.org/doc/ox64/PINE64_Ox64-Schematic-202221007.pdf
?♂️
Мы, видимо, говорим о разных платах. Я, как и в корневом коментарии этой ветки, о Pine64 Ox64: https://wiki.pine64.org/wiki/Ox64