All streams
Search
Write a publication
Pull to refresh
291
0.4
Send message
Вы хотите магии. Чтобы оно магически сделалось хорошо. Но нет, так не бывает.

Любая достаточно развитая технология неотличима от магии (С) Артур Кларк

Современные авто с автопилотом, роборуки, роботы пылесосы, хлебопечки, 3Д-принтеры и квадрокоптеры тоже лет 50 назад казались бы магией.

Как это машина будет корову доить? У неё что, волшебные механические руки будут вымя дёргать? Да ну, глупости. — неточная цитата какого-то фильма про период индустриализации, название которого я не запомнил :/

Есть сказка про блюдечко с яблоком, через которое можно за людьми смотреть. Для времени, когда это было придумано, это была магия. Сейчас этих блюдечек больше миллиарда и их все носят в кармане. Эти блюдечки умеют с вами разговаривать, управлять вашим домом и моментально писать картины без холста, красок и кисточек. И помнить их все. Могут освещать вам дорогу в тёмный час, и достаточно лишь коснуться этого блюдечка в определенном месте, чтобы к вам примчалась карета.

Есть сказка про клубок, который разматывается и показывает путь. Это по современным меркам даже не то что не магия, это какая-то очень морально-устаревшая, даже, я бы сказал, концептуально устаревшая технология.

Как это пылесос сам комнату чистит? У моих знакомых бабушка не верила пока сама не увидела. Магия? Магия. В комнате само делается хорошо, делается чисто.

В програзме такая «магичность» приводит к хрупкости. То есть, вы написали программу, её компилятор оптимизировал, она работает быстро. Потом вы изменили в каком-то левом месте что-то, и оптимизация компилятора больше не срабатывает. Всё.

То есть, когда мы пишем программы, мы хотим предсказуемости, стабильности результатов. «Наделение компьютера Алдан бессмертной душой» эту предсказуемость убъёт. В результате, оно будет когда работать, а когда — нет. Вместо гарантированного подбора кухни под гарнитур, оно иногда будет выдавать картины Дали.


А как же баги? Это тоже непредсказуемость. В текущем подходе тоже всегда есть вероятность, что оно сработает не так, как надо. И бывает что разработчик тоже не понимает, почему оно так делает.

И если у ИИ вероятность багов будет равная или меньше, чем вероятность багов у текущего подхода — почему нет?

P.S.
Постановка задачи ИИ, вселённого в автомат — это тоже текст, тоже программа.

Да, но речь о том, что она будет не такая строгая. Это ближе к выносу реализации задачи на аутсорс вместе с проектированием, аналитикой, разработкой, кодированием и тестированием, только с поправкой, что всё это делает ИИ, и допускается изменение ТЗ тысячу раз с переделыванием всего тысячу раз, пока оно не будет работать так, как надо.
Спасибо :)
буквально за пару вечеров пазл полностью сложился, оставалось только освежить некоторые картинки.
(говорю без иронии)

Есть ощущение, что во время такого «застоя» мозг постепенно обрабатывает информацию на уровне подсознания, а потом, когда его что-то стриггерит, результат этой обработки возвращается сознанию. Довольно похоже, на то, что Вы описали :)
Да, я именно об этом и говорю. Нам не обязательно знать, как работает сознание человека, чтобы сделать систему, которая внешне, хотя бы в каком-то виде деятельности, проявляла бы себя так же, как сознание. А может быть даже не в каком-то виде деятельности, а в многих.

Мозг сделан из электрохимических нейронов с довольно медленными связями и упором на экономию энергии, и кучей аппаратных блоков на разные важные для нашего тела и выживания вещи. Мы же можем позволить себе конструировать электрические/оптические/квантовые/радиофотонные/??? сети без медленной химии, где сигнал движется со скоростью света, а не 30 м/с, и где энергии может тратиться гораздо больше. Вполне вероятно, что при таких вводных данных перехода к сознанию можно добиться куда более простой архитектурой, чем с той, которую имеет мозг.

И вполне вероятно, что то, что мы называем сознанием (будь оно реальным явлением или просто иллюзией), далеко не единственная форма такого качественного перехода. Вполне может быть, что этот ИИ придет к какой-то другой форме восприятия действительности, такой же феноменальной (или даже более феноменальной), как наше сознание, но устроенной по другому.

Если по-простому, то острыми углами

Возможно, я тоже не имею сознания, просто его «имитирую», ибо культура требует

Мы закономерно пришли к проблеме философского зомби и вообще проблеме природы сознания и квалиа :)

Если оно может «имитировать» программу опираясь на знания в области, скажите тогда на минуточку, чем оно отличается от полного ИИ?

Примерно так же, как DALL-E отличается от мозга настоящего живого художника. Оно же не обязательно будет "опираться на знания в области" именно так, как это делает настоящее сложное сознание человека.

К примеру, мы довольно хорошо знаем, как функционирует муравейник, какие там химические команды для чего используются. Но муравьи, тем временем, химию не изучали, механику, планирование ресурсов с логистикой и архитектурой тоже, и, тем не менее, работу свою делают. Строят свой муравейник, еду таскают, тлю пасут (!), даже не осознавая (наверное), что они делают. Там это всё заложено на "аппаратном" уровне. Вот здесь примерно то же самое. Вполне вероятно, что для того, чтобы

«имитировать» программу опираясь на знания в области

достаточно гораздо менее сложных систем, чем сознание и полный ИИ. Вполне вероятно, что наш суперуниверсальный мозг сверхизбыточен для этих задач, и они могут решаться куда более простыми системами, без сознания и сильного ИИ.

Этот ИИ, разумеется, будет посложнее нынешних генераторов картинок, но он всё равно будет гораздо проще, чем человеческий мозг.

Согласен. Но я допускаю, что знания из биологии могут иметь разный "формат", если можно так выразиться. Мы, люди, сформировали знание биологии с помощью такой совокупности образов и понятий, и других механизмов, которая хорошо ложится именно в наш мозг с его плюсами и минусами, и его архитектурой обработки информации.

ИИ же может выработать свой "формат" знаний, который лучше подходит его архитектуре, если так можно выразиться, "мышления". Нам только нужно каким-то образом донести в него информацию, чтобы он самостоятельно её систематизировал, так, как удобно ему. Как пример можно взять обучение нейросетей - это оно и есть, по сути.

Оно может не иметь сознания, не думать и не разговаривать, а просто пытаться имитировать то, что делает человек, находя закономерности. И когда имитация становится достаточно качественной, это можно использовать.

Вот я подозреваю, что не обязательно он должен быть полным ИИ, для того, чтобы решать эту задачу. Нейросети последнее время показывают большие чудеса, а там обученные веса нейронов занимают жалкие гигабайты.

И в этих нескольких гигабайтах хранится штука, которая может любые слова превращать в визуальные образы. Она помнит слова, помнит образы, помнит, как ведёт себя светотень. Совсем не так, как мы - то, что делает аналогичную работу в нашей голове, явно побольше нескольких гигабайт, и гораздо сложнее. Но результат-то почти идентичный.

Так и тут - оно, скорее всего, не будет думать так же, как мы, когда формализуем задачу и реализуем её в виде продукта, и не будет её так комплексно осознавать. Но это штуке это и не будет нужно.

хочу чтоб плитка лежала красиво, цвет не вырвиглазный и дизайн лучше фейсбука

Именно! Моё предположение как раз подразумевает, что ИИ, в том числе, позволит переваривать даже плохо сформулированные задачи, без конкретики, где заказчик/разработчик не может и двух слов связать, и не понимает чего хочет. А потом, когда увидит результат

Просто потом вам скажут, что хотели не такую.

И оно переделает. И будет переделывать и доделывать пока не получится то, что устроит. Это же ИИ, а не живые люди. Ему никогда не надоест, а кушает оно только вычислительное время.

В моём примере выше я как раз описал подход - сначала оно делает что-то, что сочтет нужным, а дальше уже человек уточняет, что должно быть, а что не должно. По желанию оно может набросать сразу 100 вариантов реализации, а пользователь выберет, что ему по душе.

Под естественным языком я подразумеваю не язык программирования, а фундаментально новый способ взаимодействия с компьютером, когда конкретика уже не требуется. Если угодно, это следующее звено цепочки перфокарты/перфоленты -> консоль -> GUI -> ???

Как и все «обыватели», вы не умеете считать вероятности, очевидно, потому что написал драйвера камер с нуля именно анестезиолог, несмотря на наличие десятков миллионов программистов :)

Кстати, а так и не выяснилось, почему так случилось, что была потребность в работе с вебкамерами, но её никто не делал? Просто из-за сложности? И да, я обыватель :)

Ох уж это завышенное самомнение… Просто приведу пример - в линуксе все было очень плохо с поддержкой веб-камер, пока один врач-анестезиолог 60+ лет не заинтересовался темой и не написал поддержку сотен камер just for fun. С тех пор в линуксе все хорошо с вебкамерами. Не каждый «обыватель» на это способен, но не нужно считать себя избранным и лучше всех «обывателей».

Термины "профессионал" и "обыватель" здесь используются в значении "человек, долго и много изучавший и работающий с темой" и "человек, недолго и мало изучавший тему, и мало работавший с ней, или вообще не работавший". Без каких-либо намёков на избранность, и то, что одно плохо, а второе хорошо и даёт какие-то привилегии.

Если рассмотреть пример с анестезиологом с точки зрения того, что я написал выше, то можно сформулировать так: вероятность того, что анестезиолог починит программу есть, но, при прочих равных, она меньше вероятности того, что программу починит программист. Как минимум потому, что далеко не все анестезиологи могут программировать, как и далеко не все программисты могут делать анестезию.

Нет, я говорил вообще не об этом. Я не зря упомянул "средний уровень продукта", а не просто "уровень продукта". Попробую развернуть мысль.

Инструменты с низким порогом вхождения создают массовость, и из-за этой массовости средний уровень результатов работы, выполненной с помощью этих инструментов, как правило, падает.

Происходит это потому что к "высшему" (в плане профессионализма/ ресурсности/ проработанности) сегменту добавляется "средний" и "низший". Уменьшение количества затрат на получение результата влечёт за собой снижение требований к качеству - зачем тщательно всё выверять, если можно сделать много образцов/деталей, и выкинуть то, что не подошло. Или не выкинуть, а просто оставить мертвым грузом. Плюс, помимо профессионалов, которые долго учились работать с профессиональными инструментами, появляются новички, а потом и вовсе обыватели, которые теперь тоже могут решать подобную задачу. Они решают её хуже, но зато их много, и они могут делать много работы - им помогают дополнительные слои абстракции в инструментах. Это не плохо, это просто особенность, со своими плюсами и минусами.

Сюда входят истории в духе "быстрое приложение на C++ vs тормознутое приложение на JavaScript с гигабайтом почти неиспользуемых библиотек", "художественный уровень фотографии тогда и сейчас", автомобили тогда и сейчас, впихивание контроллеров во все возможные места даже там, где можно обойтись парой транзисторов. Потому что, по факту, решить задачу с помощью контроллера в большинстве случаев для большинства тех, кто это будет делать, проще, хоть это и не оптимально с точки зрения того, что там внутри происходит.

Лично у меня есть работающий компьютер 1990х годов с Microsoft Word 2000, и этот ворд на нём работает быстрее (по ощущениям, раз в 6), чем современный ворд на двухпроцессорной машине с RTX 3080Ti и NVME SSD. При том, что вычислительная мощность там отличается на 3 - 4 порядка, если не больше. Потому что новый Word создан с помощью инструментов, порог вхождения в которые ниже, чем тот, что был у Word 2000. Плохо это? Отчасти да, отчасти нет. Новый Word может больше, чем старый, хотя сам, будучи инструментом, утратил много черт профессионального инструмента, потому что стал массовым. Привет, ленточный интерфейс.

Разумеется, процесс превращения профессионального инструмента в массовый протяжён во времени, и часто на это накладывается другой фактор - научно-технический прогресс, который действует в противоположную сторону - чем новее продукт, тем больше возможностей. Но это два разных фактора, которые следует отличать.

Это всё ИМХО, конечно.

У быстрой зарядки по сравнению с медленной тоже проблемы с теплом, но ничего - сейчас уже 200 Вт зарядки маячат

Ответил выше.

Чтобы писать "a => a*a" нужно знать, как это писать. А многословные формулировки вроде "TAKE ARGUMENT NAMED A AND MULTIPLY BY ITSELF", которые мы можем видеть в Basic/COBOL и прочих - это не естественный язык, а скорее подражание ему. На деле мы все равно пишем команды, просто многословно.

Речь же о том, что задачу обьясняют так же, как объясняли бы её человеку. "Хочу трёхмерный редактор укладки кафельных плиток с возможностью совместного редактирования через аккаунты Google". *появляется софт* "Теперь добавь возможность гуглить текстуру плиток, сделай интерфейс лаконичнее и убери это непонятное текстовое поле". "Сделай мобильную версию". Я имею ввиду примерно это.

Хотя тут уже постепенно отмирает необходимость в софте как таковом - под каждую задачу пользователя софт синтезируется с нуля, и процесс синтеза софта и решения задачи с помощью него сливаются в единый рабочий процесс.

возможности формулировки задачи на человеческом языке полезны

ИМХО, возможности формулировки задачи на человеческом языке не полезны и не бесполезны, они просто снижают порог вхождения с уровня "умеет работать с компьютером" до уровня "умеет говорить".

И плюсы/минусы тут такие же как у любого другого снижения порога вхождения, например, у перехода от коммуникаторов со стилусом и WP к современным смартфонам, или от C++ к JavaScript, или от профессионального фотоаппарата к мыльнице/камере в смартфоне, или от текстового интерфейса к GUI. Профессиональных возможностей меньше, зато технология становится доступна широким массам.

И да, средний профессиональный уровень продукта, который делается с инструментами с низким порогом вхождения всегда ниже, чем тот, который делается профессиональными инструментами. Это плохо, но закономерно.

Да, похоже разъем для зарядки ждёт та же судьба, что и миниджек

Что бы продуктивно общаться с компьютером, нужно уметь разговаривать на его языке.

Нейросети, имхо, постепенно пошатнут это утверждение. Чего только стоит суета вокруг StableDiffusion. Разумеется не везде и не всегда, но постепенно возможности формулировки задачи на человеческом языке будут появляться в разных местах.

Другое дело, что часто люди даже на человеческом языке сформулировать задачу нормально не могут. Но тут ИИ тоже может хорошо сработать, и научиться понимать бессвязный поток мысли лучше, чем это делают сами люди.

А в остальном согласен.

А с документами работать сложно — да и беспроводная мышка лагает даже у тех ТВ, которые позиционируются как ТВ/мониторы (от 40 до 55")
Впрочем, с моделями последних трех лет я дела не имел, может уже улулучшили.

Если Вы про лаг изображения - уже три года как пофиксили - специальный режим для игр, при котором оно работает как монитор. Официально лаг 1 мс, по измерениям 5 мс. Для игр, кстати, лаг тоже часто неприемлем. Данный вопрос по телевизорам в качестве мониторов я подробно расписал тут.

Если про подключение мышки к ТВ - а зачем вообще так делать?) Его роль быть просто монитором и всё) В экран влезает 6 - 8 страниц сразу, очень удобно. Использовать мозги телевизора для редактирования текстов, имхо, не самая лучшая идея, так как весь его интерфейс изначально заточен под потребление контента, а не под его создание.

Вышеупомянутый Сюрфейс оказался наиболее удобным этом плане — а я перепробовал многое, начиная с обычных ноутбуков и ненетбуков.

Разумеется фолд сюрфейс не заменит, эти устройства для разных задач.

Сюрфейс это почти полноценное мобильное рабочее место, а фолд скорее небольшой планшет чтобы что-нибудь оперативно поправить пока нет доступа к рабочему компьютеру, интернет почитать, документ согласовать.

Фолд всегда под рукой, и в этом его фишка. Сюрфейс в карман не положить, зато у него мощное x86 железо со всеми вытекающими плюшками, клавиатура, подставка и большой (по сравнению с фолдом) экран без складок.

То есть сравнивать фолд с сюрфейсом то же самое, что сравнивать сюрфейс со стационарным компьютером. У них разные плюсы/минусы и разные спектры решаемых задач.

Да, и указывают они на неравномерности плоскости экрана.


Таки это работающий концепт.

Гибкие дисплеи на сегодняшний день все не являются абсолютно ровными. Плохо это? Плохо. Но других пока нет. Однако, имхо конечно, отсутствие абсолютно плоской, с точностью до атома, поверхности, не является большой проблемой.

Фишка бликов в том, что если поверхность отклонится даже на ничтожный, невидимый глазу угол, на блике это будет заметно. И чем дальше то, что в нём отражается, тем сильнее будет смещение. Ибо геометрия. Отражения усиливают неровности очень сильно.

Например, отклонение на полградуса - это уже отклонение на 1 мм в отраженной картинке, если то, что отражается, находится на расстоянии 5 метров. На видео расстояние до светильников, отражающихся в мониторе, гораздо больше. На самой картинке наклон в полградуса Вы не заметите.

По этому же принципу работает низкая заметность складки на фолде - там отклонение не пол градуса а все 10, или даже 20, и по блику это видно, но когда смотришь прямо в упор, сама картинка выглядит плоской, пока специально вблизи не рассмотришь под углом.

Родная, легкая и крепкая — на четырех винтах, собирается быстрее автомата Калашникова :)Вообще, мой старый DELL 2408WFP выглядит рядом с этим монитором настоящим динозавром :)

Хм, интересно было бы сделать монитор со складывающейся ножкой, чтобы не нужно было вообще винты вкручивать :)

Отчасти соглашусь, но всё-таки специализированные чипы и так уже максимально дешевы, а FPGA ещё есть где дешеветь. То есть оно будет дороже, но не настолько сильно, как сейчас.

Интересно, чем вызвано такое решение. По идее форма разъема не обязательно создаёт необходимость засовывать это всё в кабель.

Information

Rating
2,175-th
Registered
Activity