В те времена вот так пробросить видюху вряд ли получилось бы. Проброс pci-e устройств в QEMU появился относительно недавно (лет 10?), а стал вот таким простым как в статье и того позднее.
Сижу на очень похожем сетапе в плане видюхи. Диск не пробрасывал и живу с файликом, лежащим на хосте, но как раз планирую купить отдельный SSD.
Дуалбут - интересное решение, но я так и не понял зачем? При выводе на монитор с выхода проброшенной GPU картинка идеальная, производительность не теряется почти ни в чём, в каких ситуациях вы перезагружаетесь в неё?
4 бита на клетку - 16 состояний каждой клетки, в коде используется только 12 и максимальное значение - 2048. То есть можно чуть дополнить до 32768, это ещё не теоретический максимум, но для человеческих возможностей близко к пределу.
P.S. Захотелось написать игру на Brainfuck))))) Даже не знаю, почему не написал, когда игра была популярна.
Комментаторы выше обсуждают ускорение, но почему никто не обратил внимание, что это тестовый "поезд" в 1.1 тонну весом? Это же не полноценный поезд разогнали, а просто протестировали двигатель. Маленький масштаб позволяет дешевле проверить и обкатать технологии, поэтому и ускорения большие. Об этом даже в посте написано.
Я скептически отношусь к маглеву как средству передвижения, уж слишком он дорогой, но как раз такие исследования могут сделать его если не дешевле, то полезнее.
Зачем вы перевели эту статью продовца БАДов? А да, ссылка на телегу же.
Губерман - очень сомнительная личность, он не просветитель, а торгаш. Полезных мыслей в статье нет, только и так давно известная про то, что физические нагрузки и сон полезны, спасибо, кэп. Сплошная вода же без единой детали или описания взаимосвязей. Не надо тащить эту гадость на хабр.
Степлер можно разогнуть и он сработает без второй поверхности. Есть даже специальные "пистолеты" для скобок. Да, в такой ситуации ножки не загибаются, зато как раз глубоко входят.
Лихо вы меня и громадную часть населения России в чужаки записали. Может по диалектным особенностям бордюр/поребрик, или окающему/акающему говору такую же границу проведём? Вся суть моего возражения как раз в том, что разные люди говорят по-разному, поэтому возникают "ужасные" грамматические ошибки, и не надо людей за это клеймить. Особенно если всё остальное сообщение написано грамотно, уважительно и выверено. У нас тут явно не случай вопиющей безграммотности, в которую нужно тыкать носом.
Настолько нет проблем, что выйграл - супер распространённая ошибка. Её бы и быть не могло, если бы все чётко слышали разницу. Можно написать кАрова, потому что там произносится неясный звук, но никто никогда не напишет коЛова, так как Р и Л хорошо отличаются. Й и И отличаются в этих словах далеко не у всех, отсюда и Андройды в Тайланде, и войн, и линуксойд. Послушайте, например, последний звук в слове "большой". Чувствуете разницу с линуксоидом? Я вот нет.
Ок, согласен, не такая же, сильно меньше. В словаре такого слова нет, поэтому это не совсем ошибка. Но всё же общая система с заимствованиями на "оид" в русском есть: андроид, астероид, полароид. Именно к ним отсылают граммар-наци. Так что своего рода правило всё же есть.
Разрешите ворваться не по теме? Почему вы считаете, что в этом слове именно безударный гласный звук [и], а не согласный [j]? Я вот слышу своё произношение, как и других людей, и там часто Й. Особенно в Тайленде и Андройде. Ударный дифтонг [ои] сложно произносить многим русскоязычным, хотя это и часть нормы. В родных словах он много где превратился в [оj], и пишется уже "ой".
Да, при письме это орфографическая ошибка, такая же как и тся/ться, допускаемая по той же причине (на слух не ясно), но неужели вам это так важно?
На хабре всегда в комментах обсуждали суть перевода, речь о качестве только если он очень плох. Понятно, что вопросы автору не позадаёшь, но это не мешает комментировать. Оценивать работу LLM в этом посте я не буду. Она хорошо умеет обрабатывать тексты, переводить, стилизовывать, на это вроде как никто и не жалуется. Весь спор по поводу сгенерированного LLM контента, без мысли автора.
Эксперимент вы придумали интересный, но я не представляю как интерпретировать результаты. Если ваш пост получит меньше минусов или плюсы - так давно известно, что подача важна. Если столько же - значит суть тут совсем плоха. То, что llm может поднять качество подачи - вроде как тоже не особо оспариваемый тезис. Какова гипотеза эксперимента?
У меня ИИ контент вызывает физическое отвращение, особенно картинки. Я не прихожу клеймить суть, я прихожу жаловаться на боль, которую у меня вызвал контент. Она далеко не всегда сразу рационализируема, её нужно ещё раскопать, чтобы понять, но она очень сильна.
Точно так же я клеймил нарисованные человеком изобажения, если в них что-то сильно не так. Точно так же ругал копирайтерские посты ни о чём, где одна вода. Ничего принципиально не поменялось, просто llm позволила генерить гораздо больше этого шлака.
Какая сходимость метода? То есть сколько итераций корректировок нужно для достижения заданной точности? Что-то мне подсказывает, что даже метод Герона менее вычислительно затратен
Звучит как сказка. Техническое задание, достаточное для воспроизведения работы системы "как было" будет в разы сложнее кода. Собственно, работа программиста же в том, чтобы перевести с нестрогого и неоднозначного естественного языка в чёткий и строгий компьютерный. Этот шаг убрать нельзя, если вы замените код промтом, ТЗ усложнится до уровня сегодняшнего кода.
А вы себе представляете как будет выглядеть промт для проекта на миллион строк кода, который развивался лет 10 хотя бы? Для таких проектов единственная надёжная документация - код, всё остальное либо неполно, либо некорректно. Написание этой документации посложнее написания кода будет.
Это я к тому, что подход с переписыванием не работает для проектов, где нужно развитие, поддержка предыдущих версий, консистентность поведения и даже багов, которые становятся фичами. Очень многое держится не на стандартах и документации, а фактическом поведении существующего кода.
У меня тот же вопрос, что и к автору статьи: где EQ применяется как фильтр или важная величина? За пределами психологической и психиатрической диагностики не встречал. Ну то есть тесты проходят все, кому не лень, но кого-то наняли/уволили исходя из их результатов? При этом для первичной диагностики разных психологических особенностей простые EQ тесты работают отлично.
Тогда и пишите в заголовок именно это: IQ не подходит для оценки интелекта высокого уровня. Не обман, не заблуждение, потому что он работает для большинства людей. И можно примеры, где на полном серьёзе его использовали как фильтр со значениями сильно выше 100? Не на словах, не в рекомендациях, а в возможности пойти учиться или работать на конкретное место.
Разобрался. Сбили с толку вот эти слова из статьи:
если специализация шаблона происходит в контексте, где приватный член доступен (например, внутри класса или через friend), то компилятор разрешит взять его адрес.
Думал, что все эти макросы вставляются в сам класс. Без этого и правда интересно и сильно отличается от привычной интеграции через friend.
Принцип довольно давно известный, мне кажется был в одной из книжек Саттера. Я сейчас использую домашнее решение компании с gtest, которое точно так же через специализацию шаблона предоставляет доступ к приватам. В тестируемом классе объявлен friend template class, а тест его специализирует и спокойно обращается к приватам без указателей на поля и прочих усложнений.
В те времена вот так пробросить видюху вряд ли получилось бы. Проброс pci-e устройств в QEMU появился относительно недавно (лет 10?), а стал вот таким простым как в статье и того позднее.
Сижу на очень похожем сетапе в плане видюхи. Диск не пробрасывал и живу с файликом, лежащим на хосте, но как раз планирую купить отдельный SSD.
Дуалбут - интересное решение, но я так и не понял зачем? При выводе на монитор с выхода проброшенной GPU картинка идеальная, производительность не теряется почти ни в чём, в каких ситуациях вы перезагружаетесь в неё?
4 бита на клетку - 16 состояний каждой клетки, в коде используется только 12 и максимальное значение - 2048. То есть можно чуть дополнить до 32768, это ещё не теоретический максимум, но для человеческих возможностей близко к пределу.
P.S. Захотелось написать игру на Brainfuck))))) Даже не знаю, почему не написал, когда игра была популярна.
В первом комментарии к посту уже всё посчитали, зачем вы налили сюда эту воду? Вам мало ИИ жидкостей, которые уже отовсюду прорываются?
Комментаторы выше обсуждают ускорение, но почему никто не обратил внимание, что это тестовый "поезд" в 1.1 тонну весом? Это же не полноценный поезд разогнали, а просто протестировали двигатель. Маленький масштаб позволяет дешевле проверить и обкатать технологии, поэтому и ускорения большие. Об этом даже в посте написано.
Я скептически отношусь к маглеву как средству передвижения, уж слишком он дорогой, но как раз такие исследования могут сделать его если не дешевле, то полезнее.
Зачем вы перевели эту статью продовца БАДов? А да, ссылка на телегу же.
Губерман - очень сомнительная личность, он не просветитель, а торгаш. Полезных мыслей в статье нет, только и так давно известная про то, что физические нагрузки и сон полезны, спасибо, кэп. Сплошная вода же без единой детали или описания взаимосвязей. Не надо тащить эту гадость на хабр.
Степлер можно разогнуть и он сработает без второй поверхности. Есть даже специальные "пистолеты" для скобок. Да, в такой ситуации ножки не загибаются, зато как раз глубоко входят.
Лихо вы меня и громадную часть населения России в чужаки записали. Может по диалектным особенностям бордюр/поребрик, или окающему/акающему говору такую же границу проведём? Вся суть моего возражения как раз в том, что разные люди говорят по-разному, поэтому возникают "ужасные" грамматические ошибки, и не надо людей за это клеймить. Особенно если всё остальное сообщение написано грамотно, уважительно и выверено. У нас тут явно не случай вопиющей безграммотности, в которую нужно тыкать носом.
Настолько нет проблем, что выйграл - супер распространённая ошибка. Её бы и быть не могло, если бы все чётко слышали разницу. Можно написать кАрова, потому что там произносится неясный звук, но никто никогда не напишет коЛова, так как Р и Л хорошо отличаются. Й и И отличаются в этих словах далеко не у всех, отсюда и Андройды в Тайланде, и войн, и линуксойд. Послушайте, например, последний звук в слове "большой". Чувствуете разницу с линуксоидом? Я вот нет.
Ок, согласен, не такая же, сильно меньше. В словаре такого слова нет, поэтому это не совсем ошибка. Но всё же общая система с заимствованиями на "оид" в русском есть: андроид, астероид, полароид. Именно к ним отсылают граммар-наци. Так что своего рода правило всё же есть.
Разрешите ворваться не по теме? Почему вы считаете, что в этом слове именно безударный гласный звук [и], а не согласный [j]? Я вот слышу своё произношение, как и других людей, и там часто Й. Особенно в Тайленде и Андройде. Ударный дифтонг [ои] сложно произносить многим русскоязычным, хотя это и часть нормы. В родных словах он много где превратился в [оj], и пишется уже "ой".
Да, при письме это орфографическая ошибка, такая же как и тся/ться, допускаемая по той же причине (на слух не ясно), но неужели вам это так важно?
На хабре всегда в комментах обсуждали суть перевода, речь о качестве только если он очень плох. Понятно, что вопросы автору не позадаёшь, но это не мешает комментировать. Оценивать работу LLM в этом посте я не буду. Она хорошо умеет обрабатывать тексты, переводить, стилизовывать, на это вроде как никто и не жалуется. Весь спор по поводу сгенерированного LLM контента, без мысли автора.
Эксперимент вы придумали интересный, но я не представляю как интерпретировать результаты. Если ваш пост получит меньше минусов или плюсы - так давно известно, что подача важна. Если столько же - значит суть тут совсем плоха. То, что llm может поднять качество подачи - вроде как тоже не особо оспариваемый тезис. Какова гипотеза эксперимента?
У меня ИИ контент вызывает физическое отвращение, особенно картинки. Я не прихожу клеймить суть, я прихожу жаловаться на боль, которую у меня вызвал контент. Она далеко не всегда сразу рационализируема, её нужно ещё раскопать, чтобы понять, но она очень сильна.
Точно так же я клеймил нарисованные человеком изобажения, если в них что-то сильно не так. Точно так же ругал копирайтерские посты ни о чём, где одна вода. Ничего принципиально не поменялось, просто llm позволила генерить гораздо больше этого шлака.
Какая сходимость метода? То есть сколько итераций корректировок нужно для достижения заданной точности? Что-то мне подсказывает, что даже метод Герона менее вычислительно затратен
Звучит как сказка. Техническое задание, достаточное для воспроизведения работы системы "как было" будет в разы сложнее кода. Собственно, работа программиста же в том, чтобы перевести с нестрогого и неоднозначного естественного языка в чёткий и строгий компьютерный. Этот шаг убрать нельзя, если вы замените код промтом, ТЗ усложнится до уровня сегодняшнего кода.
А вы себе представляете как будет выглядеть промт для проекта на миллион строк кода, который развивался лет 10 хотя бы? Для таких проектов единственная надёжная документация - код, всё остальное либо неполно, либо некорректно. Написание этой документации посложнее написания кода будет.
Это я к тому, что подход с переписыванием не работает для проектов, где нужно развитие, поддержка предыдущих версий, консистентность поведения и даже багов, которые становятся фичами. Очень многое держится не на стандартах и документации, а фактическом поведении существующего кода.
У меня тот же вопрос, что и к автору статьи: где EQ применяется как фильтр или важная величина? За пределами психологической и психиатрической диагностики не встречал. Ну то есть тесты проходят все, кому не лень, но кого-то наняли/уволили исходя из их результатов? При этом для первичной диагностики разных психологических особенностей простые EQ тесты работают отлично.
Тогда и пишите в заголовок именно это: IQ не подходит для оценки интелекта высокого уровня. Не обман, не заблуждение, потому что он работает для большинства людей. И можно примеры, где на полном серьёзе его использовали как фильтр со значениями сильно выше 100? Не на словах, не в рекомендациях, а в возможности пойти учиться или работать на конкретное место.
Разобрался. Сбили с толку вот эти слова из статьи:
Думал, что все эти макросы вставляются в сам класс. Без этого и правда интересно и сильно отличается от привычной интеграции через friend.
Принцип довольно давно известный, мне кажется был в одной из книжек Саттера. Я сейчас использую домашнее решение компании с gtest, которое точно так же через специализацию шаблона предоставляет доступ к приватам. В тестируемом классе объявлен friend template class, а тест его специализирует и спокойно обращается к приватам без указателей на поля и прочих усложнений.