Обновить
204
8

Пользователь

Отправить сообщение

Виноват. Я посмотрел прайс-лист для не-резедентов.

Для резедентов самый дешёвый корп.аккаунт обойдётся в 67,1тыс.руб/мес. (при покупке 12 месяцев). Или 26,8тыс.руб/статья без учёта стоимости контента.

35...40тыс. это не так много как 100тыс., но порядок цен тот же.

Когда всё вокруг выглядит «экспертно», отличить реальную экспертизу от пустой оболочки становится всё сложнее.

У меня есть пока не до конца проработанная гипотеза, что все беды web2.0 - текущие и грядущие - от неуёмного бегания за читателем. И последующего возведения его на пьедестал.

"Ах бедняжка читатель, как же он не получит нашу экспертную экспертность с прямо с первой строчки поисковой выдачи?!"

А должен?

У меня есть дежурный пример: официальный форум САПР Altium Designer находится... за пейволом! Т.е. компания-разработчик как бы говорит "Спиратил наше крутое ПО? Молодец. За советами иди теперь к Васянам с сайтов вроде "1000 рефератов".

Это что касается бизнеса. Но. Следует разделять интересы бизнеса, интересы контент-маркетологов и нереализованные юношеские амбиции CEO.

Ваш корп.блог на Хабре публикует в среднем по 2,5 статьи в месяц. При том, что стоимость кор.аккаунта по самому дешёвому тарифному план Хабра составляет 200тыс.руб/мес., у вас затраты на 1 статью оказываются под, а может и за сотку. С учётом, что у вас в корп.блоге есть статьи с количеством менее 1к просмотров, я бы сказал, что ведение этого корп.блога с точки зрения CEO имеет не коммерческие цели :)

А вот контент-маркетологам развитие ИИ может весьма знатно подгадить, обесценив то, за что им платили последние лет 20. Но на мой взгляд и для них ситуация не безнадёжна. Есть ряд интересных вариантов как им переосмыслить своё место в медиа и остаться как бы даже почти "при своих".

Я даже алгоритм на основе этого исследования разработал. И позавчера опубликовал.

Ого! Вы нашли слабое место алгоритма!

Замечу, правда, что все AI-чекеры в той или иной мере уязыимы. Пример уязыимости Originality буквально веткой выше.

Ну вот! А мой алгоритм имеет куда меньший углеродный след. При его использовании не нужно будет кочегарить десятки и сотни GPU.

если я напишу статью с итогами 2024 года или о технологиях, которые появились в 2025 году, то ваш детектор будет считать мою статью сгенерированной ИИ?

Не совсем так. Мой алгоритм будет считать её сгенерированной с 50% вероятностью.

Вы можете сказать, что на ваш взгляд это достаточно высокий уровень неопределённости. А я скажу, что это субъективно и ни один алгоритм выявления генеративного контента не работает со 100% гарантией.

Например, по данным приведённого мною исследования система Originality в 2022 году распознавала до 10% статей в интернете как заведомо и почти полностью нейросгенерированные. А в настоящее время она даёт противоречивые результаты для 40% статей.

Возможно мой алгоритм не столь точен. Но зато он на много порядков менее требователен к ресурсам.

Вероятность 50%, это как если бы вы на любой вопрос отвечали: Да и нет одновременно.

Нет. Не на любой. Если в статье указана дата публикации "2021 год", алгоритм произведёт совсем иную оценку.

Проверяли моим алгоритмом, я надеюсь? :)

В сети есть несколько этих графиков.

Я брал график именно из оригинала статьи.

методика заведомо несовершенна. Было бы странно если бы график был идеальным.

Отдельные точки плюс аппроксимирующая гладкая кривая выглядели бы, на мой взгляд, куда честнее. Потому, что сейчас вид как будто...

...попросили ИИ сделать график покрасивее, а он пририсовал себе несколько процентов...

...туда, несколько процентов сюда. Чтоб выглядело типа научно.

В какой-то момент замедление должно было произойти, когда начали принимать меры по фильтрации контента.

А может- наоборот, чекеры начали "сдавать", а реально AI-контента куда больше. А может - что угодно ещё. Но как будто данное исследование делалось не для выяснения этих любопытных подробностей :)

Странно что процент сходится к 50%. Сложно представить наличие какого-то балансирующего механизма.

О да! И не только это странно :)

Отгавк снова не засчитан.

Ну попробуйте его на мегагерце хотя бы запустить.

Выберите себе обидное прозвище, которым я буду вас называть, если я попробую и у меня получится запустить его на мегагерце. Тогда продолжим дискуссию :))

Ну попробуйте его заставить микросекунды считать

Зачем его заставлять? Он сам их считает.

В статье как раз этот кейс описывается

В статье нет ни слова про RTC.

То, что я плохой-нехороший и у вас с этого бомбит - понятно. Но тут дело не в мотивации моих вопросов, а в аргументации ваших ответов.

Исходники условной Ubuntu есть смысл держать у себя локально. Не зависимо от того, есть ли у Canonical деньги на их собственные серверы или нет. Просто потому, что условная Ubuntu самоценна.

Держать чужие дикпики потому, что "децентрализованная интернет-свобода", а у автора дикпиков нет своего компа - ну как бы, а зачем?

У вас на этот вопрос нет аргументированного ответа - лишь заезженное "вы просто завидуете, сперва добейтесь, революция победит".

Я с вами по-взрослому, а вы на фальцет переходите.

up-time - время с момента включения питания на плату
тайм штамп - временная отметка. По сути это и есть up_time

А чем вам не нравится модуль RTC с субсекундным разрешением, который встроен во все STM32?

Прерывания каждую микросекунду?

Прерывания каждые 64 миллисекунды.

Отгавк не засчитан.

Иногда бывает, что сами родоначальники, будучи ещё живыми, весьма легкомысленно относятся к своему наследию. Я, например, в рамках подготовки вот этой статьи связался с разработчиком одной из первых систем интерактивной вёрстки Camex-135, о которой в интернете полтора упоминания.

Спрашивал: "расскажите, как же вы в начале 1970-х сделали WYSIWYG редактор?"

"Там это для газеты, ну да, чёт такое делали", ответил он.

Неужели такая простая мысль, что любой дополнительный пре/пост-процессинг не может быть бесплатным, слишком сложна для современного поколения разработчиков?

Странновато это слышать от человека, мечтающего о бесплатных серверных мощностях :)))))

Если завтра бюджет Canonical сократится в 2 раза, жёсткий диск на вашей Ubuntu не уменьшится пропорционально.

Если послезавтра Canonical сообщит, что для покрытия бюджетной дыры ей надо ввести рекламу, на вашей установочной флешке всё ещё останется дистрибутив без рекламы.

А если вы честно спроецируете данные гипотетические события на ваши мечтания, то поймёте их принципиальное отличие от OpenSource.

я публикую эту статью в надежде, что вы поможете подсветить все возможные косяки

<перед этим>

я планирую внедрить UCF в свой формат бинаризации произвольных данных VaryPack, который используется в моей децентрализованной базе реального времени Giper Baza, у которой есть все задатки стать основой Web4

Вам уже подсвечивался самый главный косяк, который называется Трагедия общин. Из-за этого косяка ваш Web4 является сказочной страной феечек, а без Web4 у вас не получится всё остальное.

1
23 ...

Информация

В рейтинге
684-й
Зарегистрирован
Активность