Вот не соглашусь. Там как раз наоборот от систем распознавания лиц просто деваться некуда. ИИ там пихают куда угодно и когда угодно. Плюс эти игры с социальным рейтингом (пусть и на уровне слухов). Компартия очень хорошо понимает, что и как делать с ИИ и делает это с удовольствием.
Английский очень хорошо структурирован. Вот особенно для логических задач, где используются подобные формы Субъект -> предикат -> объект, там превосходство английского оно просто колоссальное.
К примеру, я составлял граф знаний из фактов и утверждений при обработке текстов.
На английском одна форма почти всегда. И здесь очень легко понять где предикат, где субъект и где объект. Вот есть простой факт утверждение, что что-то является чем-то
Возьмем настоящее простое время.
На английском это просто
X is Y
Субъект X является Y
На русском потяжелее гораздо. Очень много вариаций может оказаться в тексте.
X это Y
X является Y
X — Y
X это значит Y
X есть Y
Та же история и с нейросетями. Когда язык лучше структурирован. Сеть на нем обучается лучше.
Вроде бы говорится что в Сбер ruGPT Large 760 миллионов параметров. В то время как в оригинале 175 миллиардов. Не скажется ли это на качестве работы российской версии? Ведь
получается, что она даже меньше чем GPT 2
Вот не соглашусь. Там как раз наоборот от систем распознавания лиц просто деваться некуда. ИИ там пихают куда угодно и когда угодно. Плюс эти игры с социальным рейтингом (пусть и на уровне слухов). Компартия очень хорошо понимает, что и как делать с ИИ и делает это с удовольствием.
К примеру, я составлял граф знаний из фактов и утверждений при обработке текстов.
На английском одна форма почти всегда. И здесь очень легко понять где предикат, где субъект и где объект. Вот есть простой факт утверждение, что что-то является чем-то
Возьмем настоящее простое время.
На английском это просто
X is Y
Субъект X является Y
На русском потяжелее гораздо. Очень много вариаций может оказаться в тексте.
X это Y
X является Y
X — Y
X это значит Y
X есть Y
Та же история и с нейросетями. Когда язык лучше структурирован. Сеть на нем обучается лучше.
получается, что она даже меньше чем GPT 2