Pull to refresh
3
0.1
Vladimir @imageman

User

Send message

чего бы не хотел по отношению к себе

неверная логика. Подумай о союзе садиста и мазохиста.

он способен работать строго 24 часа в сутки

Из анекдота: "Советским бухгалтерам купили калькуляторы. Теперь они могут считать в 10 раз быстрее? Нет, теперь они за тоже время могут сделать в 10 раз больше ошибок" :-)

В целом-то я за ИИ. Но пытаясь экстраполировать я вижу грустную ситуацию: вдруг мы не сможем проконтролировать или увидеть ошибку ИИ. Даже так: "ОШИБКУ" (типа "Вот так можно сделать чёрную дыру...." и дальше подробные инструкции, которые уходят на фабрику, где роботы впахивают "365 дней в году"). То, что мы сейчас видим это "карманный" ИИ 1-го уровня. Это пред-человеческий, слабый ИИ (откровенно слабый). Он пока уровня "jpeg всего интернета". А я смотрю чуточку дальше (может 3-й уровень или выше).

Либо он делает все также как мы, но быстрее

Уже сейчас нам не хватает того, что ИИ может сделать "всего лишь лодку", нам нужен космический корабль. Пока у нас худо-бедно хватает мозгов контролировать решения (при изготовлении условной лодки). Спустя какое-то время (уже практически сейчас) мы будем говорить компу "фу, как ты плохо решил задачу!" и в ответ будет прилетать "а ты попробуй решить лучше". В простых задачах легко проверить ответ (2+2=4). В некоторых задачах не понятно, правильное решение или нет. "Простая" задача коммивояжера: найти кратчайший маршрут. Найти маршрут можно, доказать, что он кратчайший.... ну, попробуй. И пока у нас почти всегда хватает мощи найти более выгодный вариант или доказать, что можно лучше (к примеру живые водители пока делают меньше автоаварий, хотя у нас всего два глаза и два уха). Я веду к тому, что даже "дочеловеческий" ИИ мы не всегда можем на 100% проверить. К примеру https://avva.livejournal.com/127385.html пару десятков лет назад уже получались доказательства с использованием PC и сразу же разгорелись споры. И это были ещё те времена, когда все программы писались ручками, когда алгоритмы влезали (помещались) в наши головы. Сейчас (формально) нейросети простые, но там так много переменных (весов), что мы не можем оценить какие из них правильные, какие нет и дальше проще не будет. Я веду к тому, что есть класс задач, где мы не понимаем как получился результат и как проверить правильность. И это могут быть задачи с риском для жизни (условно -- проектирование миссии на Луну).

современные и будущие ИИ-приложения не представляют для нас угрозы, так как они не могут причинить вред или действовать иначе, чем они запрограммированы

Что за узкое мышление? Ошибки в решениях ИИ (особенно текущего уровня) неизбежны. Добавим к этому человеческую лень (https://habr.com/ru/news/738054/) и мы получаем потенциально взрывоопасную смесь. На данный момент уровень ошибок такой, что их довольно легко находить (относительно легко). Вместе с совершенствованием ИИ находить ошибки станет сложнее. В конце концов мы придём к тому, что перестанем видеть ошибки. И вот однажды ИИ скажет: "а давайте все земляне рванут на Марс, а лучше Юпитер" (или какой-нибудь проект "цифровое бессмертие" или "вселенский разведчик") и так убедительно всё распишет, что мы не увидим ошибки. Думаете такое невозможно и мы всегда будем умнее?

Интересно, кто молча минуснул? Хочу знать за что.

Yolov5

А в это время уже Yolov8 устарело, т.к. есть Yolov10 (https://github.com/THU-MIG/yolov10).

была сделана статистическая выборка из 100 срабатываний

Лентяи. А я хотел попросить вас сделать сравнение основных yolo от 5 до 10.

А вот ещё бы подсказали как легче разметить 500 картинок, да на 25 классов (классы нестандартные). Да на каждой картинке по 10 прямоугольников и у каждого свой класс... В остальном статья повторяет уроки от Робофлов и т.п. Не увидел ничего нового.

Обучение заняло около 6 часов на компьютере с процессором AMD Ryzen 7 3700X

Т.е. GPU не задействовали?!

Конечно, для обучения модели на таком наборе данных, необходимо большее количество эпох.

Т.е. было лень подождать?

обсудили вопрос создания своего датасета

Где это? Я что-то пропустил в статье? Мне показалось вы взяли готовый датасет ("Я взяла набор данных с сайта").

PS. прям матом хочется ругаться!

Аномалий в данных много и если алгоритм реагирует на любой чих

Ага, значит до contamination вы не добрались?

Hidden text

contamination‘auto’ or float, default=’auto’

The amount of contamination of the data set, i.e. the proportion of outliers in the data set. Used when fitting to define the threshold on the scores of the samples.

А (к примеру) LOF имеет детектор новизны (Novelty detection) и позволяет самостоятельно решить что будет новизной/аномалией.

Gridsearch в данной задаче это единственный возможный вариант

https://habr.com/ru/articles/704432/ Optuna. Подбор гиперпараметров для вашей модели

Min Max scaler

Помня, что у нас есть выбросы это не самое мудрое решение. Нужно было смотреть в сторону StandardScaler или RobustScaler. А может даже PowerTransformer и дальше по списку (QuantileTransformer с Gaussian output) https://scikit-learn.org/stable/auto_examples/preprocessing/plot_all_scaling.html. Возможно выбросы нужно как-то корректировать. В остальном хорошо.

В итоге попробовав isolation forest я убедился в том, что аномалий много

с какими параметрами? Лес, надеюсь, строился по одному насосу? (Хотя для группы тоже можно пробовать.) А другие методы поиска аномалий (LOF) пробовали?

Не увидел как вы нормализуете данные? По отдельным фичам делали разведочный анализ (построение гистограммы, к примеру)?

Gridsearch? Этот метод кто-то серьезно использует? Он ужасно расточительный и может применяться либо а) для жадного поиска либо б) когда переменных 2-3. В остальных случаях слишком долго.

По моим прикидкам разрешение колеблется от 1000 до 2500 dpi (в зависимости от оси). По полиграфическим стандартам это позволяет говорить о вполне неплохом потенциале для печати фотографий. Разумеется в полиграфии давно уже не всё так просто, как в начале XX века, но сделать в домашних условиях при желании можно.

А можно ли упростить вашу KAN реализацию с тем, что бы число параметров было сопоставимым с SimpleConv, 8 layers? Что там с переобучением? Может из-за большого числа параметров банально быстро уходит в переобучение? Сделайте тесты хотя бы для CIFAR 100.

"атрибуты для сопоставления".... Ты как разработчик, видимо понимаешь все эти CC или width. А для обычно пользователя? Какая ширина ("width") может быть у сообщения? Аналогично с другими терминами (лучше дать возможность прочитать и получить помощь, чем не дать).
"точное совпадение текста" - дословный перевод с английского понимаю. Но когда у меня несколько слов, то не понимаю как это будет работать. К примеру, набор ключевых слов "работать, быстро" с галочкой Exact будет искать только "работать, быстро" или найдет так же "работать быстро" и "быстро работать"? Без галочки, как я понимаю, он ищет вхождение подстроки, с галочкой он смотрит на совпадение с границей слова (whole words only) и порядок слов не важен? А как быть, когда порядок слов важен?

Атрибуты ключевых слов, что это? По клику всплывает менюшка, а там всякие "cc" и "type". Ключевые слова, видимо, можно несколько - как их разделять? Что значит "exact"?
Атрибуты ключевых слов, что это? По клику всплывает менюшка, а там всякие "cc" и "type". Ключевые слова, видимо, можно несколько - как их разделять? Что значит "exact"?

Хочется где-нибудь видеть пример результата в виде списка прямо в браузере. Хочется более подробной обучалки. Чтобы через find можно было в документации найти хотя бы основные моменты. А вообще я давно мечтаю об агрегаторе, который производит нечеткий поиск по смыслу. Т.е. я накидываю статьи, которые мне нравятся, отмечаю те, что не нравятся. От этих статей берется embedding (через нейросеть) и дальше ступает в действие векторные БД или FAISS. Видимо прямо сейчас идет разработка, т.к. сервис не работает...

Так и хочется воскликнуть "Боже мой! Что это?". Настолько минималистичный дизайн, что ничего не понятно. Дайте более подробное описание. Это может быть мега полезной вещью, но пользоваться не понятно как. Поэтому 1 балл из 5. И непонятная ошибка "failed to parse the etag header value: strconv.Atoi: parsing "": invalid syntax"

Круто, не знал. Но подсистемы там, все-таки, не должно быть две. Независимые системы подрались бы за электронный луч, синхросигналы и т.п. Так что там должна быть строгая синхронизация. Может быть сигнал поочередно переключается с одной видеокарты на другую?

Теперь создаем несколько алфавитно-цифровых слоев, как если бы несколько компьютеров (или видеоадаптеров) передавали сигнал на ваш дисплей.

В реальности так (если я всё правильно понимаю) не получится.

В целом - прикольно :-) [но я бы не играл]

Иначе и не могло быть у народа-победителя, против которого сражался союз неоварваров во главе с сумрачным германским гением.

Откуда такая странная диссонирующая фраза?! На этих "варваров" работало очень много блестящих умов. Да, поступали они (фашисты) зачастую очень мерзко, но недооценивать их не стоит.

ну не ругайте сильно парня, он старался....

Вот парочка функций-братьев, которые могут помочь.

def find(png_sample, confidence=0.9):
    if os.path.exists(png_sample) is False:
        logger.error('File not exist ' + png_sample)
        return False
    btn = pyautogui.locateCenterOnScreen(png_sample, confidence=confidence)
    if btn != None:
        return btn
    return False
def find_and_click(png_sample, confidence=0.9):
    if os.path.exists(png_sample) is False:
        logger.error('File not exist ' + png_sample)
        return False
    btn = pyautogui.locateCenterOnScreen(png_sample, confidence=confidence)
    if btn != None:
        pyautogui.moveTo(btn)
        logger.debug(f'Click to {png_sample} {btn}')
        pyautogui.click()
        pyautogui.sleep(0.04)
        return True
    return False

А что касается "Любой qa автоматизатор и тем более фронтендер" думаю заблуждение, не любой. И вообще в таком случае было бы правильнее тыкнуть в обучалку, которая это сделает эффективнее. От себя добавлю, что игрульки сделаны заковыристо, и там дебри обфусцированного JavaScript и html считай нет...

librosa.util.fix_length просто обрезает всё лишнее, а если не хватает, то заполняет нулями. Так себе решение. Особенно если учесть, что из 20 секундной записи мы можем сделать десяток записей по 9 секунд (окно с перекрытием). Аугментации с фиксированными коэффициентами 0,8 и 1,2 неплохо, но я бы (как минимум) сделал случайные коэффициенты, добавил бы немного шумов (как монотонный шум, так и потрескивания, щелчки и т.п.) и получил бы еще чуть больше экземпляров. Так же не увидел нормализации данных. Для лесов это может и не критично, а вот для нейросетей может стать решающим (когда у вас loss не падает сотни эпох).

Валидационную выборку вы неправильно создали: вы её делали после аугментаций, соответственно запись "A" могла пойти в тренировку и эта же запись (но уже с небольшой растяжкой 1,2) ушла в валидацию (утечка данных https://habr.com/ru/companies/vk/articles/746360/).

А зачем ты начал с "[возьмём] линейное неоднородное дифференциальное уравнение"? Ведь чуть позже мы понимаем, что это не важно для статьи (а вот народ всякими там Эйлерами и упоминанием комплексных чисел может и отпугнуть).
Коротко: берем экспериментальные данные [x,y], задаем вид функции f(x) с неизвестными коэффициентами A и находим такие коэффициенты, которые дадут наименьшую ошибку. (Кстати, ты ведь не сказал, что вектор X может иметь размерность больше 1. И с некоторыми оговорками и Y может иметь размерность больше 1.)
Дополнительное чтение тут: https://habr.com/ru/companies/skillfactory/articles/666040/

1
23 ...

Information

Rating
3,566-th
Location
Резекне, Латвия, Латвия
Date of birth
Registered
Activity