Существует народная примета — если подгонка модели упирается в вычислительные ресурсы, скорее всего что-то не так с моделью. В данном случае не очень понятно, зачем надо использовать 10 миллионов наблюдений для подгонки регрессии с одной независимой переменной.
Парную регрессию я взял для простоты. 10 миллионов наблюдений можно спокойно получить, работая с большими данными. Например, если необходимо построить модель для классификации социально-демографических характеристик аудитории. Данные с пиплметров за небольшой промежуток времени генерируют и значительно большие объемы.
Понятно, что 10 миллионов наблюдений можно получить. Вопрос был в том, нужно ли. Не проще ли взять случайную выборку в 10 тысяч наблюдений и подогнать регрессию на ней? А потом взять другие 10 тысяч и на них проверить?
Непонятно про соотношение 75.8 в пользу Eviews по сравнению с R. Вы пишите, что доп. миллион увеличивает время оценивания в R на 1.39 сек., в Eviews — на 0.18. Получается ~ 7.7. Или не так понял?
Если хотите скорости в R для оценки линейной модели, то используйте RcppEigen. Тесты производительности здесь.
Для Вашего примера при n = 1e+6 на моей машине в R обычный lm (QR метод) выполняется 2 сек., fastLm (LLt метод) — 0.08 сек., fastLmPure (LLt метод) — 0.034 сек.
Необычный у вас вывод результатов R на снимках из поста. R скрипт запускается в Eviews?
Сравнение скорости построения линейных моделей в R и Eviews