Как стать автором
Обновить

«Люди не замечают постепенных улучшений»: ИИ не зашёл в тупик — вот почему

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров6.4K
Всего голосов 10: ↑8 и ↓2+9
Комментарии70

Комментарии 70

Но реальные задачи по прежнему не решают. Попроси у дипсика или о3-мини написать конвертер маркдауна из обычного в телеграмовский хтмл(это маркдаун не путать с хтмл реальным) и получишь нерабочий код, он даже не запустится. Даже если дать ему полный расклад и подсказать какие библиотеки лучше использовать и как всё равно они не могут сделать это.

Ии Вас хотя бы поймет, в отличие от меня. А могло быть так, что задачу следовало бы формулировать в несколько итераций, чтобы не было как в анекдоте про чукчу и телефон)

ИИ на основе выборки просто сделает предположение, ибо у него просто данных больше чем у вас. Однако в действительности он ничего не понимает, он не думает. Это большой Т9, вы даете ему на вход ключевые слова, на выходе он по сути пытается угадать правильный ответ основываясь на всех своих данных что ему скормили

Ии Вас хотя бы поймет

И часто Вы она антропоморфизируете?

Но реальные задачи по прежнему не решают

Я себе на даче с помощью Gemini небольшую систему безопасности на arduino сделал - на заборе висит инфракрасный датчик и если мимо проходит человек, в доме загорается светодиод на видном месте. Сигнал передаётся по радио. Просто попросил ИИ, он мне написал код и объяснил что куда и как подключать.

Возможно, я неверно понял задачу, но клода справляется, разве нет?

Скрытый текст
import re

def markdown_to_telegram_html(text):
    """
    Конвертирует Markdown в HTML-разметку для Telegram
    Поддерживает:
    - **жирный текст**
    - *курсив*
    - __подчеркнутый__
    - ~~зачеркнутый~~
    - `код`
    - [ссылка](url)
    """
    
    # Экранируем специальные HTML-символы
    text = text.replace('&', '&')
    text = text.replace('<', '&lt;')
    text = text.replace('>', '&gt;')

    # Конвертация жирного текста
    text = re.sub(r'\*\*(.*?)\*\*', r'<b>\1</b>', text)
    
    # Конвертация курсива
    text = re.sub(r'\*(.*?)\*', r'<i>\1</i>', text)
    
    # Конвертация подчеркнутого текста
    text = re.sub(r'__(.*?)__', r'<u>\1</u>', text)
    
    # Конвертация зачеркнутого текста
    text = re.sub(r'~~(.*?)~~', r'<s>\1</s>', text)
    
    # Конвертация кода
    text = re.sub(r'`(.*?)`', r'<code>\1</code>', text)
    
    # Конвертация ссылок
    text = re.sub(r'\[(.*?)\]\((.*?)\)', r'<a href="\2">\1</a>', text)
    
    return text

# Пример использования
if __name__ == "__main__":
    markdown_text = """
    **Жирный текст**
    *Курсив*
    __Подчеркнутый текст__
    ~~Зачеркнутый текст~~
    `print("Hello, World!")`
    [Ссылка на Google](https://google.com)
    """
    
    html_text = markdown_to_telegram_html(markdown_text)
    print("Исходный текст:")
    print(markdown_text)
    print("\nПреобразованный текст:")
    print(html_text)

Ну не знаю, просил deepseek написать мне скрипт на bash - он отлично справился.

Правда, я очень подробно расписал ему алгоритм и часть функций уже была мной написана. Но, по-моему, глупо ожидать от нейросети, что она напишет за тебя проект в тысячи строк без ошибок (по крайней мере, пока что), иначе все разрабы уже бы побирались)

Да какие тысячи строк. Попросил на пауэршеле написать скрипт который пингует несколько адресов и если нет ответа от всех то переподключает сетевой адаптер.

Сразу не заработало, кое как домучил. После переноса на другой комп всё повторилось, сходу не работает, кое как доделываешь сам.

Насчёт того, что люди не замечают небольшой прогресс соглашусь. Те же генераторы картинок и видео понемногу продвинулись довольно далеко. Но вот с некоторыми позициями в статье вам меня убедить не удалось. Например раздел "Прорывы в обработке данных" заканчивается так:

Вывод прост: да, нехватка данных — это реальная проблема, но она решаема.

В самом разделе вы только упоминаете новые методы, которые всего лишь, цитата: " метод, позволяющий обучаться быстрее при меньшем количестве данных". То есть, проблема нехватки данных пока не решается вообще никак. Нет новых данных и хоть как ускоряй или урезай существующую выборку, новых достижений от ИИ не будет. Может, кто-то что-то когда-то и придумает, но сейчас, судя по всему, воз и ныне там.

Недавно видел тут статью про то что антропик(клод) научили работать с секретными данными (что то для корпораций), данные сначала шифруются, потом клод с ними как то работает.

Закрытых данных очень много, тот же код с закрытыми исходниками, огромные базы с персональными данными, личные фотографии итп, если на них можно будет учится то это еще +очень много данных.

А про LIMO вы читали? Да и следуя банальной логике, человеку не нужно прочитать все книги в мире и пропустить через себя весь Интернет, чтобы стать специалистом в выбранной области. Так будет и с ИИ. Он будет учиться рассуждениям, "когнитивным шаблонам", как выразились авторы статьи по ссылке. А факты будет черпать из Интернета, словарей, баз данных, считать с помощью компьютера, Wolfram Mathematica.

факты будет черпать из Интернета

А если в интернете нет фактов ?

Или факты искажены?

НЛО прилетело и опубликовало эту надпись здесь

истинность утверждений на определённом ресурсе неоднозначна и проверить её с помощью рассуждения (т.е. без экспериментов и простого наблюдения) нельзя, но есть огромное альтернативных ресурсов?

Вы точно уверены, что есть альтернативные ресурсы по всем темам кроме самых общих (и то совсем не факт , как подготовлена информация на общих ресурсах, а подготовлена она специально обученными специалистами для формирования нужных общественных мнений)?

Я знаю одну тему, ну просто потому, что долго ей занимаюсь.

Нет альтернативных ресурсов , я не нашел, по крайней мере. Вполне допускаю , что кто-то работает над темой и никому не говорит, в отличии например от меня.

Ну и как ИИ проверит что информация которую он нашел - корректна ?

Вот такая ситуация , кто-то решил заниматься темой "анализ производительности СУБД PostgreSQL", интересно же , задал вопрос доступным чат-ботам , получил массу информации и ответов и начал собственные исследования по данной теме, опираясь на полученную информацию.

Учитывая , что ответы ИИ носят самый общий характер и не содержат конкретных решений , пройдет очень много времени пока новый исследователь поймет, что информация которая опубликована в интернете устарела и все это время он шел по тупиковому пути.

Т.е. в данном случай ИИ не помог, а навредил.

Проблема грязных данных и отсутствие данных в интернете это очень серьезная проблема для языковых моделей. Это же базовая логика - из ложной посылки, любой вывод ложен. Как установить истинность начального тезиса ? Да еще и в интернете .

Я не специалист по LLM , поэтому не берусь судить - как будет решаться.

Вполне возможно , лет через 10-15 никто и не вспомнит об этом ажиотаже.

Поживем, увидим.

Вот такая ситуация , кто-то решил заниматься темой "анализ производительности СУБД PostgreSQL", интересно же , задал вопрос доступным чат-ботам , получил массу информации и ответов и начал собственные исследования по данной теме, опираясь на полученную информацию.

Учитывая , что ответы ИИ носят самый общий характер и не содержат конкретных решений , пройдет очень много времени пока новый исследователь поймет, что информация которая опубликована в интернете устарела и все это время он шел по тупиковому пути.

Т.е. в данном случай ИИ не помог, а навредил.

Можете пояснить?

В чем приницпиальное отличие нагуглить фигню в Интернете или получить ее через чатбота (ибо он на ней же обучался)?

Что значит "самый общий характер"? Он вполне может помочь со списком, что стоит потестировать. И даже написать заготовки тестов, которые вы под себя затюните.

Может быть станет понятнее, если приведете пример "тупикового пути", которого бы не случилось пару лет назад.

В чем приницпиальное отличие нагуглить фигню в Интернете или получить ее через чатбота (ибо он на ней же обучался)?

Принципиально ничем. Разница только во вложенных бюджетах в алгоритм поисковика и LLM. Если на входе фигня, то на выходе тоже получится фигня. И не важно сколько ресурсов вложено в обработку.

А если результат не отличается - зачем платить больше ?

А в интернете , по некоторым тема вообще в принципе ничего кроме фигни нет.

Что значит "самый общий характер"?

Это значить - между "что делать" и "и как делать" - иногда марафон триатлон.

Он вполне может помочь со списком, что стоит потестировать. И даже написать заготовки тестов, которые вы под себя затюните.

Что тестировать я и так знаю - производительность СУБД PostgreSQL. Вопрос - как тестировать. Какие сценарии и как обрабатывать результаты и вопрос вопросов - какие цифры и почему считать результатом. И никакая LLM на эти вопросы не ответит, просто потому, что в интернете нет статей на эту тему. Ну , вернее пока нет. А когда появится, лично мне уже эта информация не особо и интересна будет, я дальше пойду.

Может быть станет понятнее, если приведете пример "тупикового пути",

Пожалуйста - все три варианта имеют аномалии которые проявляются на разных сценариях нагрузочного тестирования. Но никакая языковая модель об этом знать не может.

Другие боты дадут такой же результат. Другому взяться просто неоткуда
Другие боты дадут такой же результат. Другому взяться просто неоткуда

Обратите внимание на пункт 4. Я не спрашивал "как мониторить", зачем он мне это говорит ?

Другие боты выдадут такие же ответы, кто-то больше кто то меньше.

Потому, что они понятия не знают, что перечисленные варианты расчетов тупиковые и имеют аномалии.

P.S. Просто тема статистического анализа производительности СУБД мне довольно близка , я держу руку на пульсе. Уверен, по другим темам требующим исследования а не статистического анализа мегатон текстов в интернете ситуация аналогичная. Так, что пусть кто хочет называет это интеллектом. Для меня языковые модели лишь очень сложные продвинутые поисковики. Может быть когда нибудь от них будет польза именно в исследованиях нового, но пока нет.

Видимо у меня основное непонимание именно в этом:

Что тестировать я и так знаю - производительность СУБД PostgreSQL

БД от меня далеки, я не понимаю, что не так с советами. Как по мне, так действительно нет какой-то "универсальной метрики производительности". Надо от задачи плясать.

Если бы мне нужно было выбрать железный сервер для какой-то задачи, я бы спрашивал рекомендации по RAM/CPU при таком-то объеме данных или какие тесты погонять на имеющемся сервере, чтобы оценить, какое-кол-во транзакций потянет при предполагаемом профиле использования.

Если бы выбирал "какую БД использовать" - тоже вопрос "для чего". Иначе Redis точно быстрее окажется :) А без указания деталей и ответы будут весьма общими.

Может в БД и есть какая-то "универсальная метрика", но в более близкой мне сети для разных типов трафика не то, что результаты разные, а даже измеряют в разных единицах. Скажем, максимальная пропускная способность на больших пакетах - гигабиты в секундe. А для маленьких пакетов - пакеты в секунды, ибо "гигабиты в секунду" могут на порядок ниже быть и ни о чем не скажут. А есть еще задержки (скажем, через спутник большой файл скачать может быть быстро, а вот в терминале работать некомфортно).

P.S. В смысле "зачем мониторить"? Я бы во время тестов обязательно смотрел на загрузку CPU, вдруг одно ядро загружено, а остальные балду пинают, а не только на объем закоммиченых данных (или что там метрика производительности показывает).

В общем, не понимаю. Ну да ладно, далекая от меня тема.

Надо от задачи плясать.

Разумеется. Осталось дело за малым - объяснить это LLM и реализовать алгоритмически. Но эти алгоритмы , все , предполагаю как в известном меме про журналиста и ученого, называют интеллектом - ну вот пусть применит интеллект ;-)

Как по мне, так действительно нет какой-то "универсальной метрики производительности". 

но ВСЕ языковые модели, которые я пока тестировал начинают пытаться выкручиваться , объяснять и видывать тексты. Что лично мне особенно раздражает - цитаты из моих статей .

В общем, не понимаю. Ну да ладно, далекая от меня тема.

Вот когда LLM научатся так отвечать , тогда и сделают первый шаг к тому, что бы заслужить первый намек и оправдать второе слово в словосочетании "искусственный интеллект".

Пока они лишь воду льют очень замечательно , с языковыми моделями у человека никаких шансов. Это факт.

НЛО прилетело и опубликовало эту надпись здесь

В общем , на текущий момент нет никакой технической возможности средствами LLM отделить достоверные данные от ложных. Я правильно понимаю ?

Причина , очень проста - для принятия решения нужно быть вне алгоритма и обладать знаниями в других областях . Т.е. нужен эксперт - человек который для начала поймёт что либо вопрос который был задан LLM , либо ответ который LLM сгенерировала некорректно .

Но, я наверное повторяюсь сорри, даже в этом случае - если ответа на вопрос нет в интернете LLM полностью бесполезна и только эксперт с экспертом в ходе прямого обсуждения смогут найти решение .

Так , получается ?

НЛО прилетело и опубликовало эту надпись здесь

Спасибо за уточнение. Но, претензия была к подаче материала в статье.

Во-первых, в этой статье о LIMO вообще ни слова (Ctrl+F не находит ни одного включения, кроме вашего комментария). Во-вторых, если автор приводит сокращенные описания чего-то, то я ожидаю, что это будет самое важное, чтобы зацепить читателя пойти по ссылке и узнать больше. В данном случае, автор сделал упор на том, что только повысится скорость и меньше данных можно подсовывать для изучения. Это никак не подогревает интерес. Откуда простой читатель (я не слежу за всеми ИИ новостями) может почерпнуть о том, на что вы указали? Поэтому, если оценивать именно статью, то она со своей задачей не справляется и убедить меня в правильности своих предпосылок не может.

Limo позволяет получить тот же перформанс с меньшими затратами, но не увеличить его. Перформанс сетей практически не растет уже последние года 2-3 - т.к. достигнута практически максимальная точность аппроксимации. Выше 100% не поднимешься - и тут ни чего не поможет, ни большее количество данных, ни большее количество параметров, ни более совершенные методы. Это принципиальное ограничение подхода как такового.

>Он будет учиться рассуждениям, "когнитивным шаблонам", как выразились авторы статьи по ссылке

Ллм не может учиться рассуждениям (она в принципе не может рассуждать) или когнитивным шаблонам (т.к. у нее нет когнитивных способностей и в уелом когнитивных процессов или процессов которые хотя бы отдаленно похожи на когнитивные). Модель может учиться более точной аппроксимации функции распределения токенов в обучающей выборке.

Минутку, но 1-ая версия ChatGPT была запущена только 2 года назад. И каждый месяц выходят новые модели, которые ставят рекорды в тех или иных тестах.

Что касается принципиальной невозможности LLM рассуждать - это философский вопрос. Меня больше интересует практическая сторона применения LLM на работе и в быту.

Ллм не может учиться рассуждениям (она в принципе не может рассуждать) или когнитивным шаблонам (т.к. у нее нет когнитивных способностей и в уелом когнитивных процессов или процессов которые хотя бы отдаленно похожи на когнитивные). Модель может учиться более точной аппроксимации функции распределения токенов в обучающей выборке.

Вы это прочли? Вы понимаете, что LLM -- это тупой генератор текстов на базе иных текстов? Ежели в выборке чего-то не было, то она вам его изобрести не сможет.

Много раз слышал байку что ллм не обучали чему то (в обучающем наборе материалов не было), китайскому языку например, но она сама по обрывкам из других языков научилась.

Минутку, но 1-ая версия ChatGPT была запущена только 2 года назад. 

Вы путаете конкретный продукт (ChatGPT, релиз 30 ноября 2022) и модель, на которой этот продукт работал (GPT-3, релиз 28 мая 2020, почти 5 лет назад).

И каждый месяц выходят новые модели, которые ставят рекорды в тех или иных тестах.

Рекорды-то они ставят, но это все просто попугаи не имеющие отношения к реальности. По факту же, для наиболее распространенных задач (перевод, суммаризация, рерайтинг) даже о3-mini-high слабо отличается от базовой ванильной трешки пятилетней давности. Единственный реальный прогресс в контексте - но и там, речь о том что просто можно закинуть большего размера промпт, а так даже лучшие модели теряют контекст после 10-20 страниц текста (или 1-2 kloc кода) и надо создавать чат заново.

Что касается принципиальной невозможности LLM рассуждать - это философский вопрос.

Да нету ни какого философского вопроса, сеть выдает один единственный токен и прекращает работу. Один единственный токен - очевидно, не рассуждение. Сбор же токенов в осмысленную цепочку - отдельная операция, с которой работа сетки вообще не связана ни как.

ЗЫ: между gpt-3 и gpt-2, к слову, прошел всего год, и это был реально жесткий прорыв от "нахер не нужно, т.к. невозможно использовать в реальных задачах" до "можно без проблем применять в обширном классе реальных задач". Т.е., объективно, после выхода GPT-3 - за ~впятеро большее время был сделан в разы меньший прогресс. собственно, о том и речь - в плане качества работы моделей почти весь возможный прогресс уже "выбрали", лучше делать просто некуда. Но можно дешевле и эффективнее в применении - вот в этом направлении последние 2-3 года развитие и идет.

Он будет учиться

Всем злоупотребляющим словом «будет» я показываю

старый детский мультфильм

Нехватка вычищенных данных есть. Тех, которые люди предобработали и заботливо положили в интернет. Но ещё есть данные разной степени сырости, которых нет в интернете, и даже агентов, которые их будут собирать, уже создают.

Если капнуть в будущее через призму истории, то нынешние нейронки явно далеки от нормального ИИ. Больше похожи на улучшалки на все случаи жизни, соответственно ожидания от них должны быть не как от детищ.

У Вачовски были анимационные зарисовки - механический мир без электричества. Сегодняшние ИИ смахивают на попытку вдохнуть самостоятельности механическим куклам и сложным печатным машинкам. Но завтра придёт "электричество" и все эти наработки окажутся тупиковыми, либо в лучшем случае закладкой под другой уровень технологий.

Натаскивание нейронок крайне затратно для человеческих ресурсов, но не даёт самого главного - самостоятельности, осознанности и самообучаемости ИИ. Для большого рывка возможно понадобится переход к цифроаналоговому языку и куча наработок в области социальной инженерии, психологии биологии и медицины. Настоящий прорыв начнётся когда ИИ сможет осознать себя, свои недостатки, сможет улучшать и апгрейдить самостоятельно.

Кто-то хотел вставить чип себе в мозг... возможно именно так будет выглядеть самое начало эпохи ИИ. Вначале чип подружат с нашими сигналами и моторикой, потом постепенно начнут переносить фокус мозговой активности на внешнее устройство а-ля Пентиум 1, Пентиум 3...

Эволюция нас миллион лет лепила. Сделала слишком сложными и стабильными, а мы не до конца разобравшись, пытаемся перенести "дешёвым" способом в цифру и удивляемся почему так криво)

но не даёт самого главного - самостоятельности, осознанности и самообучаемости

Проблема в том, что далеко не каждый человек соответствует этим требованиям. Если сравнивать среднестатистического человека по выдаваемому качеству суждений и знаний, то ИИ может еще и оказаться впереди. Одних только плоскоземельщиков хватает, чтобы начать заявлять будто современные ИИ меньше галлюцинируют и даже проявляют сознательность. Ну а поток сознания в интернетах выдавали и до появления нейронок. В остальном, рассуждения айтишников про разумность ИИ напоминают то как врачи сравнивают себя с пациентами и искренне удивляют почему пациенты такие тупые и поголовно больные.

И еще момент. Людям от нейронок нужны не самостоятельность, осознанность и самообучаемость. Эти качества нейронок для высших гоминидов крайне неудобные, и именно они вызывают опасения появления Skynet. Людям нужна нейроняня, готовая 24/7 вытирать слюньки любимому чаду. Людям не нужны от ИИ самостоятельность, осознанность и самообучаемость.

Проблема в том, что далеко не каждый человек соответствует этим требованиям.

Ежели человек научился говорить, ходить и пользоваться туалетом, то он вполне им соответствует.

Людям не нужны от ИИ самостоятельность, осознанность и самообучаемость.

Но без этих качеств они будут тупыми генераторами текстов, не способными выполнять полезную работу.

УШМ или 3D принтер без самостоятельности, осознанности и самообучаемости меня вполне устраивает. Могут быть претензии к качеству, точности или чему-то еще, непригодность для каких-то задач, но это не делает их "неспособными выполнять полезную работу".

Ежели человек научился говорить, ходить и пользоваться туалетом, то он вполне им соответствует.

Офигеть полезный работничек.

Нет уж, лучше я ИИ спрошу.как в PowerQuery сложить [Col1]+[Col2]+[Col3] чтобы 5+null+3 получилось 8, а не null. И мне плевать, что он мне моментально ответ подскажет тупо сгенерирова текст и не осознавая себя. Вот это для меня польза, а не то, что кто-то там в туалет ходить научился.

Принтер без самостоятельности, осознанности и самообучаемости меня вполне устраивает.

Потому, что это инструмент. Полноценный ИИ -- это не инструмент, а работник, ну партнёр по работе, ежели хотите.

Как в PowerQuery сложить...

Чтобы это уметь, нужно читать книги по программированию и мануалы по технологиям.

"Полноценный ИИ" - это который AGI? Такого вроде пока нет.

Чтобы это уметь, нужно читать книги по программированию и мануалы по технологиям.

Правильно. Нужно. Но я не могу быть специалистом во всем. И мне от ИИ нужно чтобы он решал задачи, которые я сам не в состоянии решить за реальное время.

Я вижу много споров из-за ожиданияй.Кому-то "поболтать с осознающим себя", такого нет, ои разочарованы. А мне - порешать задачи, которые раньше я описывал на форумах и ждал в надежде, что кто-то смилостивится и подскажет. И теперь то, что раньше мне подсказывал естественный интеллект через несколько часов, а то и дней, теперь я получаю от искусственного интеллекта практически моментально.

Я доволен. Тем более , что для меня нет ничего обидного, когда в отношении "неосознающей себя железяуке" используют тот же термин "интеллект", что и в отношении меня. Это просто термин, слова, в который каждый вкладывает свой смысл. Если для кого-то "использование LLM" - норм, а "использование ИИ" триггерит, я не считаю это недостатком ИИ.

я не могу быть специалистом во всем

«Всю водку не выпить, всех девок не перепортить — но это ещё не повод к этому не стремиться!» ©

На мой взгляд, появление подобных статей и споры - явный признак того, что развитие выходит на плато и куда-то всё же "упирается". Ведь если есть явные улучшения (а не изыскания на arXiv), то никого в этом убеждать не надо.

По вашему , то, что называют "Большие языковые модели" можно назвать "интеллектом" ?

У меня любимое развлечение было - задать вопрос , ответ на который точно не опубликован в интернете и наблюдать как бот льет воду и выкручивается как студент на экзамене , вместо того, что честно сказать , как человек - я не знаю, ответа в интернете нет.

Есть и более изощренное издевательство - задать вопрос и точно знать , что ответ будет неверным, потому, что информация в статьях в интернете устарела , но ии об этом не знает, потому, что не может получит информацию о информации, он просто не погружен в тему вопроса . Например, то, что автор давно забросил ресурс и статья устарела и давно не актуальна , хотя и индексируется . Т.е. до способности рассуждать, то чем собственно и характеризуется интеллект , ии еще очень далеко.

Поживём , увидим.

Дополню.

Ответы языковых моделей нужно проверять вручную , на предмет корректности и актуальности .

Вопрос - а зачем тогда они(LLM) нужны , если потом все равно потребуется участие эксперта/экспертов ? Может быть , проще дешевле и быстрее- сразу к техническому эксперту обратиться ? Если конечно , не как в известной короткометражке про 7 красных перпендикулярных линиях .

Ну , за исключением , написания курсовиков, дипломов , инструкций и статей для закрытия KPI или генерации трафика на интернет ресурсах (например на хабре). Тут конечно, ии - вне конкуренции.

Если конечно , не как в известной короткометражке

А ведь точно: эксперт ещё вопросы сложные задавать, находить несоответствия, не соглашаться. LLM здесь вне конкуренции: со всем согласится и выдаст решение

эксперт ещё вопросы сложные задавать, находить несоответствия, не соглашаться.

— Так вот, — говорит Морковьева. — Нам нужно нарисовать семь красных линий. Все они должны быть строго перпендикулярны, и кроме того, некоторые нужно нарисовать зеленым цветом, а еще некоторые — прозрачным. Как вы считаете, это реально?

— Нет, — говорит Петров.

— Давайте не будем торопиться с ответом, Петров, — говорит Сидоряхин. — Задача поставлена, и ее нужно решить. Вы же профессионал, Петров. Не давайте нам повода считать, что вы не профессионал.

— Видите ли, — объясняет Петров, — термин «красная линия» подразумевает, что цвет линии — красный. Нарисовать красную линию зеленым цветом не то, чтобы невозможно, но очень близко к невозможному…

— Петров, ну что значит «невозможно»? — спрашивает Сидоряхин.

— Я просто обрисовываю ситуацию. Возможно, есть люди, страдающие дальтонизмом, для которых действительно не будет иметь значения цвет линии, но я не уверен, что целевая аудитория вашего проекта состоит исключительно из таких людей.

— То есть, в принципе, это возможно, мы правильно вас понимаем, Петров? — спрашивает Морковьева.

Петров осознает, что переборщил с образностью.

— Скажем проще, — говорит он. — Линию, как таковую, можно нарисовать совершенно любым цветом. Но чтобы получилась красная линия, следует использовать только красный цвет.

— Петров, вы нас не путайте, пожалуйста. Только что вы говорили, что это возможно.

Это задание немного запутанное и включает несколько невозможных условий. Давайте попробуем разобраться.

  1. Семь красных линий, все строго перпендикулярны друг другу: В двумерной плоскости это невозможно, потому что максимум можно нарисовать две линии, перпендикулярные друг другу, либо несколько линий, перпендикулярных к одной линии.

  2. Линии зеленым цветом: Если требуется нарисовать некоторые линии зеленым, то они уже не будут красными, что противоречит первому условию.

  3. Прозрачные линии: Прозрачная линия вообще не будет видна, что делает невозможным ее рисование.

Предлагаю пересмотреть условия задачи, чтобы уточнить ваши требования. Возможно, есть иной способ выразить вашу идею или проект.

Как вариант, можно представить себе многомерное пространство, где число перпендикулярных линий возможно больше, но даже там есть ограничения. Если хотите обсудить другой подход, я с удовольствием помогу!

Copilot умеет говорить нет.

Copilot умеет говорить нет.

и абсолютно не понимает, что такое шутка ирония сарказм и гротеск.

Какой практический смысл в этом ответе ?

На что были потрачены мегатонны бюджетов , время и работа специалистов?

На то, что бы придумать абсолютно бессмысленный ответ на вопрос , с которым справится школьник ?

НЛО прилетело и опубликовало эту надпись здесь

весь диалог из довольно популярного видео (первоисточник мне неизвестен)

Короткометражка

https://rutube.ru/video/1f1274ea1e072da04bd5c775f0b5321c/?r=a

Первоисточник

https://alex-aka-jj.livejournal.com/66984.html

7 взаимно перпендикулярных линий требуют 7D-пространства

Именно поэтому он — не эксперт

Пожалуйста .

"Как рассчитать производительность СУБД PostgreSQL".

Вопрос с подковырками .

1)Не нужно лить воду и цитировать мои статьи , с хабра в том числе .

2)Нужна формула , не текст ни о чем для наполнения курсовика , а конкретный ответ на - как рассчитать, какая формула , как получается цифра .

Если будет , ответ который я не раз уже встречал , скорее всего , что то типа "отношение *** будем считать производительностью СУБД" , я скажу , что эта методика уже давно устарела потому, что возникают аномалии. Но нейросеть об этом не знает, потому, что статьи в интернете с описанием аномалии , я не публиковал пока.

Т.е. вопрос вопросов - почему интеллектом называют алгоритм , который не способен рассуждать ?

Я, честно говоря, не знаю, как человек может не лить воду в ответ на этот вопрос. У меня, например, сразу возникла куча уточняющих вопросов, типа производительность чего именно, записи? чтения? сложных селектов? селектов с деревом? на больших данных которые не влезают в кэш? транзакций на несколько таблиц? относительная производительность в сравнении с другими СУБД на том-же самом железе? а может относительная, но Постгреса на разном железе? и это еще не все вопросы, которые возникли, но все писать лень. :)

Однако языковые модели, к сожалению, никто не учит задавать уточняющие вопросы их учат всегда отвечать, даже если вопрос размытый и неясно что вообще надо, поэтому они и пытаются как-то отвечать на такие вопросы. Вы сами сказали, что аж статьи писали по этой теме, а требуете в ответ вместо воды конкретную формулу. Не видите противоречий?

У меня, например, сразу возникла куча уточняющих вопросов

Потому, что вы человек и реальный интеллект , а не алгоритм который назвали " искусственный интеллект".

Вы способны рассуждать , логически сопоставлять , искать аналогии и логические связи, а не статистически обрабатывать мегатонны , вообще говоря очень грязной , информации из интернета .

Не видите противоречий?

Нет, потому, что не считаю эти алгоритмы интеллектуальными и не жду в результате, хоть что то отдалено напоминающее реального интеллекта.

P.S. Боты кстати , вполне себе пытаются изобразить интеллект и ответить на вопрос .

Вы сами же в предыдущем комментарии к статье "Как протестировать производительность СУБД перед миграцией: опыт K2Тех" задаёте дополнительные вопросы авторам, чтобы ответить. Ваши желания и ограничения должны быть заданы в инструкции модели. Закинул в deepseek ваш вопрос, дописал, что он должен уточнять вопрос, если он ему не понятен. И получил ваши же вопросы в том посте и вопросы Politura выше. Модель не читает ваши мысли, часть информации из вопроса только в вашей голове.

Вы сами же в предыдущем комментарии к статье "Как протестировать производительность СУБД перед миграцией: опыт K2Тех" задаёте дополнительные вопросы авторам

У меня очень большие подозрения , что статья сгенерирована LLM. И автор лишььэ разместил статью а целях рекламы или kpi.

Сколько дней прошло и тишина . Люди, тем более авторы заинтересованные в обсуждении , обычно реагируют быстрее.

Закинул в deepseek ваш вопрос, дописал, что он должен уточнять вопрос, если он ему не понятен

А deep seek и не говорит, что вопрос(как рассчитать производительность ) непонятен . Все ему/ей понятно. Льет поток воды и цитат весьма уверенно и бодро.

Повторюсь , как студент с шпорами и бомбами.

Это вполне объяснимо , алгоритм ведь не может знать или не знать или не понимать - он просто засыпает потоком статистически обработанной информации. Алгоритм в принципе не может знать , что 80-90% из его ответа уже давно устарело. И тот кто если будет заниматься темой анализа производительности потеряет кучу времени и пойдёт по ложному пути.

И это одна из серьёзных проблем языковых моделей - грязные данные в интернете .

С живыми авторами можно пообщаться , с цитатами из из статей - нет.

Пока вы развлекаетесь в стиле анекдота про суровых лесорубов и бензопилу - кто-то ежедневно использует LLM для увеличения производительности или скорости обучения 🤷🏻‍♂️

Сам анекдот

Купили как-то суровым лесорубам новейшую бензопилу. Собрались в кружок лесорубы, решили ее испытать. Завели её, подсунули ей деревце. «Вжик», — сказала японская пила. «Ух ты», — сказали лесорубы. Подсунули ей деревце потолще. «Вж-ж-жик!», — сказала пила. «Ух ты!», — сказали лесорубы. Подсунули ей толстенный кедр. «ВЖ-Ж-Ж-Ж-Ж-Ж-Ж-ЖИК!!!», — сказала пила. «Ух ты ж!!!», — сказали лесорубы. Подсунули ей железный лом. «КРЯК!», — сказала пила. «Ага, то-то же!!!», — укоризненно сказали суровые лесорубы. И ушли рубить лес топорами…

 производительности или скорости обучения

ну не нужно на ноль делить столь самозабвенно

Люди не только читают книги. Не только учатся у родителей и учителей. Люди играют в игры. Люди получают >80% информации глазами, просто наблюдая за миром вокруг.

Мы еще только в начале пути ASI, данных для обучения гораздо больше чем тексты в интернет, просто они еще не размечены, но мы обязательно придумаем как решить эту задачу.

Находимся на границе сингулярности, неясно с какой стороны (с) 2024 Сэм Альтман.

PS.

Помните, кем стремиться стать "машина" в каждой сказке?

Человек - весьма совершенная форма существования интеллекта.

Просто они ещё не размечены...

В этом и отличие настоящего ИИ от LLM. Настоящему ИИ не нужно "размечать данные", ему нужны органы чувств.

У современных языковых моделей нет ни разума ни сознания. По сути это "китайские комнаты" с бледной копией Интернета в качестве баз данных для ответа.

Узкие специализации, да. Распознавание образов продуктов на весах в Магните, то же самое военных целей на поле боя-отлично.

А вот доверить таким ...управление АЭС или любого другого опасного производственного объекта - ну то ещё. Любая нейросеть это "чёрный ящик", никто толком не знает, что внутри. Важно, что на выходе нечто похожее на ответ. Даже Теслы в своём "autopilot" до сих пор лишь помощники.

Система поддержки принятия решений - да, принятие решений-картинку нарисовать или бомбу сбросить там, где никого не жалко. Это максимум.

Не доверяете ИИ управлять АЭС? Разве кто-то предлагает выкинуть стандартную автоматику, убрать людей и заменить все на непонятный ИИ, вручив ему всю полноту управления?

Ну и напомните уж про причины Чернобыльской аварии, что-ли. ИИ вроде тогда не было.

Проблема "кончились данные" надумана.

Во-первых как верно отметили выше, есть уйма закрытых данных и скушанный Стаковерфлоу по объему и рядом не лежал с еще даже не надкусанным кодом закрытого ПО, до которого все равно когда-то да дойдет очередь.

И во-вторых данные "кончились" на текущем уровне их усвоения. Думать, что вот, скормили ИИ нечто и он вдруг как сразу всё оттуда усвоил, выжал досуха и ни отнять ни прибавить уже нечего, унесите и выбросьте, в корне неверно.
Ничего подобного. В прошлом веке добывали полезные ископаемые, отходы - в отвал, а потом выясняется, что сейчас-то из отвала добывать можно недовыкопанное плюс еще уйма всякого полезного, что раньше в дело не пошло.

Так и с ИИ случится. Данные те же, будет повышаться польза от их усвоения.

Проблема ИИ в том, что ему нужно подавать только проверенные человеком на достоверность данные. Иначе он почти бесполезен, потому что это потенциальный врун, за которым ВСЕГДА нужно проверять, что занимает больше времени, чем если сделать то же самое самому.

Вот что быстрее - написать программу с нуля или дебажить кучу чужого, кривого и глючного кода?

Вот что быстрее - написать программу с нуля или дебажить кучу чужого, кривого и глючного кода?

Зависит от степени сложности нужной вам программы и от уровня вашей кодер-компетентности. Если человеку, почти ничего не понимающему в программировании, нужен простенький телеграм-бот или софт для управления датчиками на даче (как из комментария выше), - то ему проще закинуть свою хотелку в ЛЛМ-ку, чем начинать изучение питона с "хеллоу ворда".

Проблема валидации данных тоже временная, связанная с текущим развитием технологий.

Можно пользоваться синтетикой,можно где возможно, прокачать валидацию машинным способом. Данные можно градуировать по степени достоверности как делают люди. Если пень во всем, то все за чистую монету, после определенного уровня человек учится верифицировать узнаваемое предыдущим проверенным опытом

Про новые базы данных организаций, никто ими делится не будет. Ну а что там хранится в этих озерах данных? Полная чушь, которую можно удалять через год, потому что она устарела также.

Ну что там интересного для улучшения GPT? Наибольшую ценность представляют диалоги в переписках, какие то презентации, техническая документация. Но и в открытом доступе такой документации навалом. И тут как с машинным обучением, много данных не всегда приводит к точности модели. Наоборот, из моделей будут стремится убрать весь интернетовский мусор, и обучать на своих документах. Это доступно уже всем желающим в notebook LM, почти бесплатно!

Проблема в том, что вы ранее писали рецепты в книгу, матери наши ее берегли. Потом появился интернет, но туда все равно писали рецепты люди руками! А теперь эти рецепты никто руками писать не будет! Появятся ли новые блюда???

Самые простые тесты ИИ, что я нашёл - "нарисуй [что-либо] в ASCII графике" (рисуют бред) и "напиши ноты (не аккорды, не табы, не слова) мелодии песни Yesterday" - тоже бред. Прогресса не вижу пока.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий