А ведь если саму каплю подумать… это вопрос Максимум один год и всё.
Все что делаем мы - пользователи сделаю себе сами на ресурсе бизнеса.
Бизнес просто даст ресурс, а покупатели сделают все сами, и даже не поймут как они создали идеальный сайт.
Для них это будет выглядеть так как будто так и было задумано. А по факту сайт накодили они сами своими запросами.
То есть открывает пользователь свой какой то Авиасейлс и задаёт вопрос: как перевезти собаку из Тенерифе в РФ.
Ему на лету собирается сервис.
Выдается результат скрипты кэшируются , ответ первому пользователю занял 5 секунд каждый следующий получит за 50 милисекунд плюс время ответа базы данных.
Меня еще не поздно подкупить) а то все! Выкачу это)... 04-2026 95% ready now
Неделя на курсоре и в конечном итоге, если бы Perplexity вернул доступ к моделям я бы не раздумывая повернулся на Perplexity.
Сейчас Перплексити мне дает делать 20 – 40 запросов, и когда я работаю в Perplexity по сравнению с курсором это просто экстаз. Когда все предсказуемо ожидаемо и без какого-то подлого «Улучшения» у тебя за спиной. Неоправданные ожидания – причина самых больших разочарований. В Perplexity я ожидаю чёткий результат и получаю его. В курсоре я получаю мартышку с гранатой
850$ за день! Cursor меня чуть не разорил Беру выписку — минус 850 баксов за 8 часов! Подписка 20 евро разлетелась за мгновение. Один запрос — 1 500 000 токенов. Куда годится?!
Привык к playground OPENAI — 5 баксов в месяц под контролем. А последний год вообще пользовался Perplexity бесплатно благодаря возможности обучить модель в пространстве. Но в средине февраля халява закончилась.
Cursor сам мутит, железные агенты, внутренняя логика — пошли бы они! Кодит не в моём стиле, половина кривая, я не согласен ни с чем. 850$ за 8 часов — почему?! Всё их RAG, векторное хранилище codebase. Говоришь “кнопку поправь” — тащит layout, prisma, next.config, ВСЁ ПОДРЯД. 1.5M токенов — timeout — плати Pro! Починил в три клика. Открыл настройки, нашёл Codebase Indexing, вырубил, Delete index. В settings.json три строчки false. В корень .cursorignore кинул. Было: “Сделай админку” = 1.5M токенов = 45 секунд = 25 баксов Стало: “Сделай админку” → “Кидай layout.tsx” → вставляю → 800 токенов = 2 секунды = 3 цента 425 раз дешевле! Быстрее работаю, проект под контролем, код в моём стиле. Сам знаю где компоненты в Fractera лежат — лучше их “умного поиска”. Халява кончилась. Откройте настройки, найдите индексацию векторного хранилища, выключите к едреней фене. Кто сколько сжёг на этом бардаке? Пишите цифры!
Вот интересен предел нашей деградации из за ИИ, ведь 10 лет назад я половину рф и всю европу насквозь без навигатора проезжал- сейчас даже до магазина без навигатора не ездят…
А с ии через 10 лет мы будем спрашивать как дышать, видимо.
Перплексити сдох, перешел на курсор и за полдня убил в себе программиста, как мне показалось.
Наркота какаята вкусная и вредная. Это мой последний выдох разума родил)
-Сказать дорого, ничего не сказать. После всех оптимизаций какие толкьо можно было выкрутить с помощью перплексити от 1 до 16м токенов в запрос? Да ну на х… -Молниеносное отупение. Вместо того чтобы понимать какой компонент нужно доделать руками или через чат, тупо жми кнопку все будет ок. Только плати.
Вообщем вывод:
если у тебя большой проект: плати и тупи;
если у тебя сайтик, то повезло. Радуйся и не думай.
А лично я , кроме удобного интерфейса , не увидел ни чего хоть на 1% нужного. Знаю тут ни кто не поддержит) ну и ладно)))
Реально ли сегодня создавать контент и сайты на 99% быстрее чем в прошлом году?
Анонс open-source проекта, который меняет подход к созданию и управлению веб-контентом : https://aifa.dev
Современные веб-порталы превратились в монстров с тысячами страниц, запутанными меню и админ-панелями, которые больше раздражают, чем помогают. Пользователи тонут в информационном хаосе, а создатели контента тратят часы на простейшие операции.
Год назад я поставил перед собой амбициозную цель: увеличить скорость создания контента на 99%. Сегодня могу с уверенностью сказать — цель достигнута.
Что пришлось разрушить
Стереотип №1: Традиционные интерфейсы
Огромные меню с сотнями пунктов — это прошлый век. Пользователям гораздо удобнее задавать вопросы AI, чем блуждать по лабиринтам навигации.
Стереотип №2: Отдельные админ-панели
Зачем создавать отдельный дашборд, если весь функционал можно интегрировать прямо в интерфейс сайта? Администратор просто переключается между режимами:
👁️ Режим посетителя — видеть сайт глазами пользователя
⚙️ Режим администратора — управлять и настраивать контент
Стереотип №3: Многошаговые процессы
Многооконные интерфейсы с десятками кликов заменены на интерфейс одной строки. Результат: количество действий для создания страницы сократилось в десятки раз.
Ключевая инновация проекта — AI-бот с полномочиями управления сайтом. Принцип работы:
Пользователь задает вопрос — "Найди товар с перламутровыми пуговицами"
AI анализирует запрос и мгновенно генерируетоткрывает нужную страницу
Система синхронизируется с базой данных и внешними источниками
Результат выдается мгновенно — без навигации по сотням страниц
Проект находится на финальной стадии разработки. В ближайший месяц планируется добавить:
🎨 Модуль создания красивых страниц — автоматическая генерация дизайна на основе контента
📱 Интеграция с мобильными приложениями — подключение крупного бизнеса к AI-системам
Весь код будетуже открыт и доступен на GitHub. Это не просто инструмент — это фундамент для создания собственного бизнеса в сфере AI-powered веб-разработки.
Кому будет полезен проект?
Стартапам — для быстрого создания MVP
Агентствам — для ускорения процесса разработки
Enterprise — для модернизации legacy-систем
Solo-разработчикам — для конкурентного преимущества
Следите за обновлениями
Это не пресс-релиз, а анонс революции в веб-разработке. Подписывайтесь на обновления, чтобы не пропустить момент публичного релиза.
Как на самом деле работает веб-поиск в OpenAI: мечты, реальность и неМНОГО разочарования
AIFA DEV illustration 3
Все мы любим мечтать. Я, например, долго ждал, когда ChatGPT наконец-то научится не просто умничать на базе своих древних знаний, а реально копать свежак из интернета. Вот прям чтобы можно было взять, подключить этот заветный инструмент веб-поиска — и вперёд, генерировать крутые статьи, писать экспертные посты, ловить хайп на новостях, не отставая ни на минуту. Но, как это часто бывает, мечты разбиваются о суровую реальность. Давайте разбираться, что же там под капотом у OpenAI и почему всё не так радужно, как хотелось бы.
Этот пост является небольшим дополнением к статье которая в полной мере раскрывает процесс создания глубинных исследований интернета при помощи искусственного интеллекта: https://habr.com/ru/articles/923948/
Иллюзия свежести: как работает веб-поиск у OpenAI
Снаружи всё выглядит красиво: жмёшь кнопку — и вот тебе "информация в реальном времени". Но на деле инструмент веб-поиска у OpenAI — это не прямой провод к живому интернету, а скорее такой себе архивчик, который обновляется не то чтобы часто. Да, модель больше не ограничена знаниями двухлетней давности, но и до новостей сегодняшнего утра ей, увы, как до Луны пешком.
В лучшем случае, когда вы просите модель "посмотреть в интернете", она лезет в свой собственный индекс (который, кстати, обновляется с задержкой в несколько месяцев), а иногда — обращается к Bing или проверенным новостным источникам. Но не ждите, что она будет парсить страницу целиком: максимум — снимет сливки со сниппета, а дальше додумывает сама. Итог? На выходе у вас 10% от реального содержания, остальное — фантазии модели.
Почему это не работает для "горящих" новостей
Вот вы решили сделать свой генератор хайповых новостей — и тут начинается разочарование. Модель не видит никаких "горящих" событий, потому что в её архиве их просто нет. Даже если вы дадите ей ссылку на новость, она всё равно прочитает только заголовок и пару строк сниппета. Хотите больше? Придётся копировать руками и скармливать в промпт.
А что делать, если хочется по-настоящему свежий контент?
Здесь на сцену выходят альтернативы. Например, тот же Exa — штука, которая реально парсит сайты, вытаскивает из них всё, что можно, и превращает это в векторный формат. Вот тут уже можно получить не только заголовки, но и весь смысл статьи. Но даже Exa не спасёт, если вы хотите ловить новости быстрее всех — в любом случае, придётся мониторить вручную и быть на шаг впереди.
Почему Perplexity пишет статьи лучше, чем OpenAI с веб-поиском?
Потому что Perplexity не ограничивается сниппетами и умеет собирать больше информации из разных источников. Он реально анализирует, сопоставляет, делает выводы — и на выходе получается не просто пересказ, а что-то похожее на человеческий текст с реальными фактами. OpenAI пока до такого не дорос, увы.
Perplexity — дочка без наследства?
Позвольте влить немного здравого паранойи в стакан хайпа. С большой долей вероятности Perplexity — это не просто модный стартап, а экспериментальная площадка, тесно связанная с OpenAI. Не юридически — стратегически.
Сценарий простой как удар по серверу: • OpenAI — серьёзный игрок, репутация, партнёрства, Microsoft, всё как надо. • Perplexity — резкий, дерзкий, свободный. Парсит всё подряд, кеширует сайты, обучает ИИ на Как жить с этим дальше?
Мой совет: не пытайтесь строить на этом автоматические генераторы хайповых новостей. Лучше делайте ставку на экспертный контент: пишите сами, добавляйте результаты поиска из Exa или Perplexity, разбавляйте свои знания свежими фактами — и будет вам счастье. Да, это не даст вам прыгнуть в топ Яндекса по последним новостям, но зато выстроит вашу репутацию как эксперта, а это куда ценнее.
В общем, инструмент веб-поиска от OpenAI — бесполезная фигня, даже если вам нужно всего немного информации из интернета- забудьте!. Не ждите от неё чудес, не стройте воздушных замков.
С вами был Роман Большинов, продолжаю делать AGI в гараже, код здесь, подключаетесь)