• Алкоголизм последней стадии
    –1
    А по мне так, эта статья помогла задвинуть потребление сладкого и кофе. Сижу теперь довольный собой.
  • Что такое вероятность и как ее посчитать
    0
    Именно такие отсылки я и хотел увидеть, спасибо, буду осмысливать.
  • Что такое вероятность и как ее посчитать
    0
    Непонятно почему именно здесь именно так, но удостоверюсь итерационно, и буду использовать.

    В любом случае спасибо, как раз поставил gsl и посчитал квантили от бета. Давно искал.
  • Что такое вероятность и как ее посчитать
    0
    Вот эта цифра 52.75, это образовалось таким образом 41+12.75-1? Если да, то на основании каких свойств?
  • Что такое вероятность и как ее посчитать
    0
    Не, самостоятельно реализовывать это лишне, если уже есть. Там пределы предельных формул, это уже за пределами моих возможностей и дефицита времени).

    А вот эта dbeta(x, 52.75, 22.75) как образовалась? Исходные это dbeta(x,12.75,12.75) и dbeta(x,41,11). Можно было бы предположить какую-нибудь слагаемость, но получается лишняя единичка.
  • Что такое вероятность и как ее посчитать
    0
    Вашы посты для меня очень итересны. Но обычно те кто хорошо знает тему, они не очень торопятся объяснять, особенно так что бы было понятно
    тем кто еще не знает. Можете ли разъяснить, как были получены коэффициенты для бета распределения? И так же интересует, как расчитывать доверительные интервалы для этих распределений без
    программы R, мне по крайней мере это нужно в c++, и текущий используемый мной вариант несколько ужасен.
  • Что такое вероятность и как ее посчитать
    0
    >Вероятность можно оценить до опыта из соображений симметрии.
    из соображений механических и прочих свойств исследуемого события. Что я и делаю относительно монеты — делаю предпосылку что там более специфичная вероятность. И уже после еще более уточняю первую предпосылку. Для игральной кости разбросы могут быть не в десятые вероятности, а в тысячные или более. Но дальше картина та же.
  • Что такое вероятность и как ее посчитать
    0
    Это допустимо только для симметричных функций. Значение вероятности распределяется не симметрично, значит одна из сторон области будет кривой и может вообще выйти за границы 0..1.
  • Что такое вероятность и как ее посчитать
    0
    Это да, но у меня это более простыми методами продемонстрированно как это образуется, возможно будет понятно более широкому кругу людей.
  • Что такое вероятность и как ее посчитать
    0
    Тут происходит небольшая путаница в понимании. Следует различать следующие две постановки вопросов: вероятность дождя/события при таких то условиях — это то что я описал, но это не прогноз погоды на сейчас. И другой вопрос, прогноз произойдет ли это событие сейчас. Этот вопрос в статье я не описывал.
  • Что такое вероятность и как ее посчитать
    0
    Я думаю вопрос вероятности дождя лучше спрашивать у синоптиков, по крайней мере про ихние вероятности. Разные типы данных по разному могут считаться. Единственное что наверняка, это то что для любого прогноза должны быть распределение результата прогноза и доверительные интревалы.
  • Лопнул ли пузырь машинного обучения, или начало новой зари
    0
    Кластеризация это подраздел математики и статистики. Думаю многие интеллектуальные системы включают в себя кучу разных разделов.

    Если почитаете мои рассуждения, то так же сможете сказать, что там имеют место быть теория вероятностей, и куча всякого другого. А в основе лежит вообще чуть-ли не школьное утверждение про подобие функций.

    Краткая суть здесь: www.create-ai.org/begin
    По всем рассуждениям у меня там много воды, и описывал я это в разные периоды. Но писал как умею. Даже одну картинку слепил). Постарался описать логическую последовательность приводящую к утверждению, что такая система будет универсальна.
  • Лопнул ли пузырь машинного обучения, или начало новой зари
    0
    Я уже давно описал на хабре и у себя на сайте альтернативный вариант решения вопроса, основанный на прогнозировании.

    В моем варианте, для примера не систему учат чему то одному нужному, а система сама все разбирает на классы, а уже потом из найденных множеств классов выбирается нужный под текущую ситуацию.

    К классу сущности относятся, не потому что они похожи графически, а потому что они обладает нужными для этого набором свойств. И в принципе, выделенный класс образуется в результате определения, что у некоторого множества сущностей есть одинаковый набор свойств.

    Я свой вариант еще не доделал, это в процессе. Но по крайней мере в теории я все попытался объяснить.
  • В трёх статьях о наименьших квадратах: ликбез по теории вероятностей
    0
    Я когда то итерационными методами удостоверился, что что бы площать графика от формулы Бернулли по переменной p была равна единице, т.е. что бы это было распределением вероятностей, его еще нужно умножать на количество опытов. Правда на поиск максимума это не влияет.
  • Снова прогнозирование, часть 2
    0
    Спасибо, я такие проверки обязательно добавлю, когда доберусь до многопараметрических зависимостей. Пока я предполагаю, что я могу еще ощутимые цифры вытянуть из правильного использования распределений одного параметра.
  • Снова прогнозирование, часть 1
    0
    Ты прокомментировал то, что я вкратце описал что есть в чужой статье. В своей статье я как раз описываю, как разобраться в том, что может прогнозироваться, и что не прогнозируется. Если график не имеет корреляций, он не будет прогнозироваться. Но это не значит что в нем не будет подобных отрезков.
  • Модель прогнозирования временных рядов по выборке максимального подобия: пояснение и пример
    –1
    Вы написали, что ошибка прогноза около 6%, судя по программному коду это за один час. Т.е. Вы случайно ткнули в график и попали туда, где такой скачок цен? Мне кажется Вы не задумывались над результатом, и даже не посмотрели, какой порядок колебаний был на 01.09.2012.
  • Модель прогнозирования временных рядов по выборке максимального подобия: пояснение и пример
    0
    А правильно ли я понимаю, что в этом описании в 2.2.1 HistNewData = TimeSeries([Index-M+1:Index],:) и в 2.2.8 Fact = TimeSeries([Index: Index+P-1],3) имеется одна общая точка? В то же время, в 2.2.4 MSPData = TimeSeries([MSP-M+1: MSP],:) и в 2.2.5 HistBaseData = TimeSeries([MSP+1:MSP+P],:) такой общей точки нет. Если так, то это ошибочка снижающая достоверность оценки.
  • Прогнозирование
    0
    Это так, пока система не получит последовательность от 1 до 9999, там уже будет достаточно примеров, что 0-9 идут всегда последовательно (это укладывается в статистический предсказатель), а вот правило переноса разрядов надо сформулировать…

    Если последовательность не из неделимых значений типа число, а из комбинации десятичных цифр, то для такой последовательности никаких дополнительно операторов, кроме мной описанных ничего не нужно. Правило переноса разрядов умещается в разложение на условия и сравнения на равенство, что в комбинации с возможностью управления курсором взятия значения, и квантификацией (оно же простейшие циклы), позволит их находить.

    При построении алгоримта операторы будут рандомно подбираться, пока не получится хороший алгоритм, или есть какая-то система?

    Я кажется понял, какой момент Вам не понятен. Не следует путать алгоритм осуществляющий прогноз и результат прогноза, который для некоторых случаев является программой.

    Если Вы задаетесь вопросом, как получается программа в соответствии с ТЗ, то это результат прогноза, а не алгоритм реализующий конвертацию из ТЗ в эту программу.

    По аналогии, если мы хотим это ТЗ не реализовать в программу, а просто перевести на английский язык. То алгоритм поиска прогноза, при наличии примеров, должен найти алгоритм перевода, выверить его статистически на предоставленных примерах, что он все правильно переводит, и применить этот алгоритм для желаемого к переводу целевой задачи.

    И да, операторы рандомно перебираются, пока не будет найдена комбинация, которая при выполнении дает желаемый результат, что проверяется на примерах. Эта задача в лоб не решаема, нужен правильный алгоритм. Пока те алгоритмы, которые я уже нашел, они значительно превышают аналогичные возможности у человека, и пока ни что не указывает на то, что дальше я таких больше не найду.

    Откуда будут браться примеры для поиска алгоритмов прогноза: наш мир изобилует этими примерами. Прогнозирование нужно просто запустить на инетовский контент. И уже после, приемами описанными в первой статье, вытаскивать из кучи найденных алгоритмов, те алгоритмы, которые интересны в данный момент. И там есть еще кучка приемов усиления получения желаемого результата.

    программируются заранее человеком?

    Да, программируется заранее конечный набор операций. Как и у любого языка программирования, набор доступных операций конечен, но то, что можно при помощи них реализовать, это бесконечное количество вариантов алгоритмов. Только для нашего случая, этот набор операций должен быть удобен для составления статистики для прогноза.
  • Прогнозирование
    0
    Все зависит от того, как их рассматривать:

    1. Если это как в жизни — пример в учебнике вплетенный в прочие данные, то алгоритм оперирует накопленными функциями.

    2. Если это абстрактный пример — начало потока и сразу идет 1, 2, 3…
    то как система видит эти данные: дискретные, не упорядоченные, и не имеющие никакой связи между собой значений.
    Их можно сравнить между собой только на равенство — оператор используемый в паттернах.

    Небольшое отступление.

    Какие операторы присутствуют в алгоритме:
    1. Операторы перевода курсора, откуда будет браться значение — для простых паттернов это всегда «предыдущий».
    2. Операторы условия и сравнения — индекс это оптимизация этого оператора.
    3. Возвращаемое значение прогноза это оператор «return».
    4. Использование групп — подпроцедуры. За вызов их отвечает оператор перевода курсора.

    Так же есть способ, который я в этой статье не упоминал, но упоминал в прошлой.
    Один цикл выполнения прогноза подразумевает: входящие данные — сохраненная история и результат — прогноз.
    Это обычная функция. Некоторые закономерности образуются цепочками вызовов: fn1(fn2(x)) -> y.

    Этих операторов воде достаточно, что бы закодировать любой алгоритм.
    Математические операции при естественных данных будут кодироваться алгоритмами типа сложения столбиком — как у нас в мозгу, где операции сложения до десяти будут запомнены в индексе, как прогноз — если 1 и 2, значит вернуть 3. А большие числа уже столбиком (дополнительное кэширование для ускорения пока не смотрим).

    Так же следует подчеркнуть значимость знания системы обратных функций к функциям, хотя как это гармонично встроить я пока не понял.

    Так вот, для абстрактного примера 1,2,3,4 операции соотношения значений должны быть закодированны заранее, и тогда будет вычислена постоянная зависимость между значениями.
    Для естественного примера, дополнительных математических операций кодировать не нужно.

    Пример А_АА_ААА_АААА это немного другой. Здесь нужно детализировать природу квантификаторов и того, как сохраняется история прошедших значений. Заквантифицированное значение сохраняется как некое значение имеющее тип массива, который наряду с прочими имеет свойство размер массива. И это значение может быть получено наравне с прочими, оператором перевода курсора. Это значение можно кодировать либо как дополнительный класс значений, либо как значения подобные входящим и составлять последовательностью представления десятичных чисел. И дальше уже накапливать закономерности по тому или второму варианту представления.

    Надеюсь, что это мое описание видится как не выходящее за рамки того, что я описывал в статьях.
  • Прогнозирование
    0
    Обсчитываются все варианты: какая зависимость если взять символ рядом, какая если символ через символ, или по квантификаторному пропуску. Это при накоплении статистики. А при применении, выбирается та ветвь операторов, которая наиболее эффективная — имеет более однозначный и определенный прогноз.

    Под словом все, я конечно не подразумеваю, что обязательно все обсчитается. Это так же как у человека, обсчитается то, что успеет до момента принятия решения. И конечно же последовательность обсчета ранжировать по значимости — вероятности нахождения решения в данной ветви операторов и по важности этого расчета для текущего момента. Вероятность нахождения в данной ветви — что то вроде прогноза, в какой области ветвей искать зависимые. Как когда Вы нажимаете кнопку на клавиатуре, Вы знаете, что реакцию нужно искать на экране, а не на соседней стенке.
  • Прогнозирование
    0
    У меня основная идея, что в ходе развития алгоритма прогнозирования, находятся все зависимости, которые могут находится. Наш мозг именно на таком принципе и работает — находит что от чего зависит.

    Попробуйте представить, что паттерны могут быть не только последовательными, а использовать такие операторы, как пропустить пока такое-то значение, или пока не такое-то. И использовать как единицу значения целые группы. И менять направление сканирования. По сути, это будет выстраивание произвольной программы, решающей, какое должно быть значение в прогнозе.

    Вот есть термин «Искусственный интеллект». Все могут сказать, что хотят от него видеть, но каждый по своему. Как пример, некоторые делают машины без водителей. Я предлагаю, сделать алгоритм, который делает алгоритмы, по затребованию под ситуацию. А не что бы своим мозгом сидеть и кодировать зависимости для конкретной задачи.

    Задача и ее решение, это просто зависимость. Это так же, как перевести текст с русского на английский.
  • Создание искусственного интеллекта
    0
    Я в тексте писал про статистические закономерности, а не про подлежащие и сказуемые. Про то, как образуются алгоритмы, и как вытаскивать нужные из общей кучи найденных. Ответы на вопросы — это одна из функций.

    Акцентировать алгоритм на каком-то конкретном свойстве человека (на распознавании текста), это как утверждать, что человек не сможет думать, если не будет разговаривать (глухонемые).

    Подлежащие и сказуемые — это структурные образования, которые немного по другому считаются. Я сейчас добавил в тексте упоминания про структуры, хотя и не сильно подробно.
  • Создание искусственного интеллекта
    –2
    Первый и второй пункты, это не аргументы.
    Третий пункт — очень не связанно, непонятно какое отношение имеет к конкретике.

    Четвертый пункт.

    Если посчитать вероятности слов, то получиться, что сотня слов используется очень часто, а остальные несколько десятков тысяч (а сочетаний и миллионы), могут до раза в десять лет. И правила оттачиваются на первой сотне, а на остальных используются. Т.е. редкость встречания ситуации проблемой не будет. В особенности, если где-то будут инструкции.

    Формирование последовательности действий — выбор стратегии — это хорошо понимается, если понимаешь суть q-learning. В кратце, это выбор действия в текущий момент, на основании суммированных вознаграждений, которые получатся за последующие несколько шагов — суммируем, какое из действий сейчас будет выгодней в перспективе на несколько шагов вперед (если хотите понять как суммируется — читайте q-learning).

    И после, что бы соединить прогнозирование и q-learning, нужно понять, что суммирование можно прогнозировать.

    И остается вопрос, которым грешат все псевдо ИИ — откуда брать это вознаграждение.
    Его взять не откуда. Это вознаграждение, это чисто отображение нашего желания на компьютер. Для каждой ситуации могут быть выгодны абсолютно любое действие — все зависит нашего текущего желания.
    В статье по сути я описал способ получения такого критерий — как можно словами объяснить компьютеру, что от него хотим.
  • Создание искусственного интеллекта
    –1
    И вся Ваша критика основывается на том, что все эти умности, для решения конкретно мной описанной ситуации оказались не нужны.

    А все, к чему цепляются из описанного, это к фразе, что все можно посчитать. Которая дальше раскрывается в то, что посчитать можно лишь то, до чего сможешь додуматься.
  • Создание искусственного интеллекта
    –1
    ни надо перевирать. Я написал, что то, что выдали как новое веянье в ИИ, я про это читал десять лет назад.
  • Создание искусственного интеллекта
    +1
    каждый Ваш пост просто полон аргументов, по самую макушку.
  • Создание искусственного интеллекта
    –2
    Ничего не знаю. Они ИИ не реализуют, значит для меня сейчас бесполезны. Есть много всякой ерунды, не имеющей отношения к ИИ. И признак «интеллектуальный» сейчас ставят даже на стиральные машинки — про них я то же ничего не знаю.

    А интересует, меня сейчас некий простейший статистический критерий классификации, универсальный для текста и изображений, и достаточно простой, что бы мог возникнуть в эволюционном развитии мозга.
  • Создание искусственного интеллекта
    –3
    Ага, а Вы относитесь к тем, кто утверждает, что ИИ невозможен. Наверное потому, что про них не сказали в учебке. А может там заговор, а сами давно им уже пользуются?

    Мне эти «библии» за последние десять лет надоели. Вот пример реализаторов, в очередной раз перепиливающих от туда выдержки: geektimes.ru/post/246444/: ИИ от Google самостоятельно освоил 49 старых игр Atari. Про кроссинг нейронных сеток и q-learning я как раз лет десять назад и читал.

    Или может мозг функционирует на квантовых механизмах, и что бы их понять, туда нужно попасть. Как в черные дыры в интерстелларе.
  • ИИ от Google самостоятельно освоил 49 старых игр Atari
    0
    вот Вы спорите, а сами правильно угадали принцип «картинка-число», причем в статье этого не было. Скорость поиска — вопрос не в этом. Если бы за 60 лет об этом сообразили бы, то были бы хотя бы теоретические упоминания об этом, а так же выкладки сколько это займет времени. И как следствие утверждения, что поиск аналогичный мозговому не возможен, и нужно все пилить ручками. И мозг работает далеко не на брутфорсе — даже ему это не под силу.

    Других вариантов нету, либо будет универсальный критерий, либо мы продолжим все пилить, и под каждую ситуацию придумывать подкрепления. Типа строим космический корабль, на него смотрит через камеру отдельно выпиленная программа и считает очки — тот ли нос прикрепили.
  • Создание искусственного интеллекта
    0
    НУС — это философское понятие — в гугле посмотрел.
    А то, что что-то подобное было — так я банальные вещи объяснял, т.к. без них в прошлом варианте мне сказали, что корчевателем прошлись.
  • ИИ от Google самостоятельно освоил 49 старых игр Atari
    0
    Количество алгоритмов бесконечно — я с этим согласен, и там я об этом упоминал. Я всего лишь утверждаю, что если это спрогнозировал человек, значит это возможно. Если не нравятся точные методы, то в конце я упомянул, что это же можно искать в нейронных сетках.

    Абсолютный брутфорс — это решение в лоб, если совсем ничего другого не нашлось.
    А всякие методы оптимизации поиска предлагают альтернативные последовательности перебора, где в первую очередь перебираются те, где больше вероятности найти нужное.

    Классификация это разделение на подклассы. А картинка-число — это корреляция — основа прогнозирования. И да, картинку нужно сначала классифицировать, и потом строить корреляции — там я упомянул, что с этим и возникла проблема — если без классификации, то и получиться брутфорсовский вариант — найти все возможное. И вопрос, каков будет универсальный признак выделения типов — оно же классификация? И этот признак достаточно прост, иначе расчет его не мог бы возникнуть эволюционным путем для живых мозгов.

    Именно, что оно все гораздо проще. И алгоритм прогнозирования давно бы составили более лобастые чем я, но они проглядели свойство, что так можно с ней разговаривать. А без этого — это просто безделушка, т.к. прогнозирования заточенные под ситуации гораздо эффективней абстрактного. И потому сидят они горемыки и в очередной раз перетачивают анализ изображения, в надежде что в нем мелькнет мудрость.

  • ИИ от Google самостоятельно освоил 49 старых игр Atari
    0
    там статью можно поделить на два утверждения:
    1. что прогнозирование можно использовать, что бы с системой можно было разговаривать.
    2. что прогнозировать можно что угодно, если данные не случайны. А если данные есть но не получается — значит просто еще не нашли алгоритм.

    и похоже Вы оспариваете то, что прогнозирование возможно. Что является абсурдом.

    Задача классификации, это не задача прогнозирования. Хотя любая задача, которую может понять человек — значит существует алгоритм.

    Над кодом трудимся. Много воды — иначе широкие массы не поймут. А философия — это когда приписывают компьютерам свойство «мудрость», дабы оно решило все наши проблемы — качество взятое из определению сильного ИИ из википедии.
  • Создание искусственного интеллекта
    0
    зачем создавать что-то сложное, что бы зацикливать компьютер? можно более простыми циклами обойтись.
  • Создание искусственного интеллекта
    0
    пусть будет у Вас на компьютере такая программа. Зачем Вы в нее будете пихать одинаковые данные?
    Не программа принимает решения, а Вы.

    Предварительные обучающие данные — интернет-страницы из поисковой выдачи по желаемой начальной теме.

    Дальше манипуляционные данные, в том числе вопрос системе, знает ли она ответ на желаемый вопрос.
    Если ответ отрицательный, то можно дальше пофантозировать, как ей сформулировать вопрос, что бы она ответила чего ей не хватает, и может где это можно найти в инете.

    В этих рассуждениях сильно повторяющихся данных нету.
  • Создание искусственного интеллекта
    0
    про опасность ИИ: опасен будет не ИИ, а люди, которые будут ставить ему задачи.
  • Илон Маск подкрепляет свое мнение об опасности ИИ с помощью $10M
    0
    опасными будут не ИИ, а люди, которые будут ставить им задачи.
  • Создание искусственного интеллекта
    0
    и кстати, эмуляция личности тоже будет автопрогнозом, по аналогии с диалогом. Самое интересное, как ее запускать. ИМХО. Что нужно в виде диалога, начать к этому алгоритму обращаться, типа «кто ты такой?», и возможно в этом диалоге потом дообъяснять недостающие ее знания, в том числе ее цели.
  • Создание искусственного интеллекта
    0
    там можно было бы предположить ограничение на память. Но сейчас диски террабайтовые. А одна толстенькая книжка — всего один мегабайт.
  • Создание искусственного интеллекта
    0
    совершенно верно про накопление. Диалог — это небольшая накопленная история. А весь этот алгоритм в свою очередь, то же одна накопленная история. Там не комбинаторно, а только лишь то, что важно. В статье есть упоминание, что количество условий выбора в конкретный момент оно логарифмическая функция от количества.

    И человек ограничен, и компьютер. Но я склоняюсь, что у человека все гораздо хуже, чем у компьютера.

    А невозможность что-то спрогнозировать, из-за отсутствия данных (но не функций) — это одинаково и у компьютера и у человека.