• Сделать свою игру — просто? Или почему мечты часто остаются мечтами
    0
    То, что вы написали — это очевидно, и я с этим не спорю, я даже этому не уделил внимания в статье. В моей статье, описан период до начального ТЗ, и после начала выполнения этого ТЗ.
  • Сделать свою игру — просто? Или почему мечты часто остаются мечтами
    –2
    Вот имено и ради этого я и писал свою статью. Почему такие сказки вбрасываются в массовое сознание, я не понимаю, но именно они мешают успеху.

    Ну и некоторая невнимательность. ГД не изменяет идею, это написано в статье.
  • Сделать свою игру — просто? Или почему мечты часто остаются мечтами
    –10
    ну если вы в курсе про меня и Википедию, то знаете такой термин с Викиреальности как административный произвол, и там уже подробнее описано как это проявилось, увы я вас в парике не узнаю.

    Я не так давно заходил туда, там так ничего и не изменилось ужасная склочная атмосфера скатилось там до того, что очевидные вещи не возможно писать. А моими статьями в Википедии до сих пор пользуются, есть со статусом лучние и хорошие, написал когда меня не трогали. Есть и награда от Википедии, за максимальное число правок в братских прроектах. Но с возрастом, единственно понимаешь, что зря потратил время ради гуманизма, а деньги заработали владельцы википедии, хабра, сье была видимо моя последняя статья на такого рода сайтах.

    А 18 -е юнцы — нет я их серьезно не воспринимаю. У меня получше были редакторы в научных журналах.
  • Сделать свою игру — просто? Или почему мечты часто остаются мечтами
    –14
    > нет самого важного – решения этой самой задачи проблемы
    наверно проблема с пониманием )

    > если и попытались, то сделали это крайне сумбурно
    да нет, более чем четко — в том объеме о чем статья, она логически завершенная и целостная.

    и не вам, уважаемый, учить меня писать статьи (мал еще :) )
  • Сделать свою игру — просто? Или почему мечты часто остаются мечтами
    –7
    да, ладно :) аж предназначение )

    а вот найдите отличие от этого поста )
    https://habrahabr.ru/post/324762/

    какое там предназначение? может проблема с вами, и завуалированное не согласие, которое ущипнуло ваши амбиции )
  • Гейм-дизайнеры, учитесь программировать
    –1
    > в идеальном мире у дизайнера должен быть «ведущий программист»
    в идеальном мире «ведущий программист» должен быть гейм дизайнером
  • Картирование интернета
    –1
    > Хотя что то в этом есть. Основное время у меня уходит на проверку таймаута каждого асинхронного вызова, т.е. 256*N ожиданий AsyncWaitHandle.WaitOne(waitTimeSpan, false), после чего я уверен, что каждый в отдельности или прождал 500 ms или получил ответ. Но в вашем варианте можно просто заснуть на 500ms и ждать чуда. И проверив это, действительно 95% (от более тщательной проверки таймаута) за это время получается отпросить.

    При ближайшем рассмотрении, оказалось это не возможно. Нужно закрывать соединение, или сборщик муссора будет тормозить. А чтобы закрывать не отвеченные соединения нужно вначале проверить истек ли таймаут, т.е. выполнить AsyncWaitHandle.WaitOne(waitTimeSpan, false).
  • Картирование интернета
    0
    Ну с такой политикой, они и не жили вовсе. Тупо поисковик, да не тоже самое. Лан, не видите разницы, видно и не увидите.
  • Картирование интернета
    0
    Впрочем, глянул я тут эти каталоги. Ну вообще-то по задумке то что надо. По реализации аж слеза навернулась. Ну, придатки тех кто свой поисковик имеет, просто смешно смотреть. Они видимо специально извратили идею интернет-каталогов, чтобы люди не хотели этим пользоваться. Особенно понравилось то, что гугл свой интернет-каталог — закрыл :) Задайтесь вопросом почему? Да потому что они хотят пользоваться этой информацие приватно, а не отдавать людям в свободный доступ. Тоже самое и у других поисковиков — в таких каталогах можно найти только рекламу.

    Но не будем о грусном. dmoz, некий момонт по описанию работающий аж на заре создания интернета. Заходим, идеально: позволяет сортировать как по языку, так и по стране!!! Ну, собственно, типа есть все о чем в моей статье. Ну, вот цифры

    105к ссылок на русском, из которых 37к в России. Хочется спросить серьезно? И это весь результат их 20 летней работы? Заходим в нижний каталог — Браузерные игры — 40 шт. офигеть :)

    Такое впечатление, что они руками все эти ссылки проставляют.

    Т.е. форма интерфейса — ДА, замечательно… наполнение? ну, понятно, что никуда не годится. Не удивительно, что о них никто просто не знает. Не знаю, что они там делают, но тогда да стоит делать dmoz2.

    И заметим в скобках, что именно подобного типа интернет-каталоги — основа любого поисковика. Только одни на этом скурвились, не желая отдавать это в общественный доступ (ведь даже этот мизер из 1 млн. ссылок оценили в свое время в десятки млн. баксов), а другие просто перестали это поддерживать в соответствии с развитием времени. Ви тоге можно считать, что интернет-каталогов просто нет на сегодняшний день.
  • Картирование интернета
    0
    Вот к чему проводит чтение статей по диагонали. А потом упорствовать в том что не дочитали, абзацом выше интересующий вас контекст.

    К интернет каталогам, описанное относится косвенно, типо был звон да не там. Дальше бла-бла-бла, не интересно.
  • Картирование интернета
    0
    ох… ну, для начала может стоило бы подумать, о том, чего Вы сами не поняли? Я конечно назвал себя новичком в этой области, но не насталько, чтобы вы рассказывали мне элементарные вещи уровня студенческих общеобразовательных знаний.

    Мне даже трудно комментировать, то что вы написал. В огороде бузина, а в Киеве дядька. С тем же успехом можно выдрать любые цитаты и написать ваши. Я просто не вижу связи между тем, что я пишу и вы сейчас прокомментировали. И уж поверьте нового вы мне ничего не сказали.

    Если начать с конца «А то вы вначале писали про карту интернета по странам — а теперь уже хотите свой поисковик запилить». Хочется спросить а Вы вообще статью читали? Я в лучших традиция научных статей написал мотивировку, и перешел к деталям. В мотивировочной части СРАЗУ было описано о создании поисковиков, а все остально это лишь начальный этап того, что для этого надо, с выделением в главное — это картирование как физической структуры нета, так и привязки этого к странам. Честно говоря, незнаю как еще более внятно это сказать. Внятнее уж простите некуда.

    Поэтому возникает впечатление. что вы стебетесь, а не отвечаете мне. Но допустим.

    Далее, вы мне рассказываете что учитывыют современные поисковики. Но я то пишу совсем не об этом!!!

    «сейчас нет списка доменов упорядоченных по PageRang», а Вы мне рассказываете что в них заложенно (знаем мы это в школе проходили ) ). Я же говорю о следующем этапе когда я собрал все домены, которые хочу анализировать, и после этого обращаюсь к сервисам гугла и яндекса, чтобы получить их индексы, и таким образом упорядочить домены, которые я выделил для своего поисковика. И я пишу, что готовых таких списков на данный момент нет. И это в том контексте, что считаются эти индексы не прозрачно и их владельцы подсуживаю тем или иным, поэтому имеет смысл для начала просто найти согласование между различными индексами разных поисковиков. Вот что я имелл введу в той фразе, правда писал не так подробно.

    «Гугл считает иначе» — на заборе тоже написано дрова, гугл тут не авторитет, а обвиняемый. А дальше вообще идет взятое с воздуха. Ну, не говорил я ничего по этому поводу, ну зачем же приписывать мне ахинею?

    Имеет значение реальный приход пользователей на сайт, время пребывания на сайте и т.п. статистика поведения пользователей на сайте. Но введу технических проблем это анализировать, я пока ничего и не говорил об этом.

    Потом я видешли спутал внешние ссылки с внутреними. Нет. Тот же хабр, скажите мне зачем создает кучу зеркал? после чего все внутрение ссылки становятся внешними? Тот же прием и в Википедии.

    И да поисковый бот, ну нулевой сайт приходил, правда разворачивался и уходил :)

    И заканчиваете фиерично :) Мол да надо хреначить то, что сложнее и получать безумное финансирование, и будет мол счатье…
    т.е. на колу висит мачало, начинаем все сначала.

    в то время как основной посыл в каждый дом свой поисковик, который сможет базироваться на картировании интернета — свободных базах, а уже как базироватья дело каждого.

    Не ужели так не доступно?

  • Картирование интернета
    0
    Если вы не согласны, или скорее даже не понимаете позицию оппонента, не стоит отправлять учить мат. часть — не серьезно. По существу вечером, хотя думаю это мало кого интересует.
  • Картирование интернета
    +1
    Просто с каждой итерацией, я пытаюсь все больше объяснить на пальцах. Поэтому не стоит передергивать, что мне кажется. В статье я отделался общими словами, надеясь что всем это и так очевидно. Почему моя аудитория до кого то сомкнулась не ясно. Я сразу говорил, что это нужно в контексте создания поисковика. Пример я дал самый очевидный. Конечно я ожидал, что и тут начнут юлить. Ну да у нас сложный мир :) что делать. Но это не обесценивает смысл описанного.

    Если кто-то хостится в Мозамбике, и я ему делаю предоплату — то я скорее не буду работать с таким интернет-магазином. Серьезные поставщики имеют официальную контору в той стране где продают и под неё выделен специальная подсеть IP. Вот с такими людьми и стоит работать, без серых схем. И вот это же имеет смысл показывать в поисковиках.

    А недовольство этого — от лукавого. Поэтому конечно будут противники такого рода поисковика — жулики и еже с ними, просто я не ожидал, что еще на стадии идеи :)
  • Картирование интернета
    0
    Ну, я уже об этом говорил. Ни я не включу, а пользователь может пожелать не включить. И потом я так же приводил пример, когда надо сравнить цены интернет магазинов в стране, а еще лучше в городе/регионе. И если подумать назначений много можно придумать, поэтому зависит от «хотелки» — задачи.
  • Картирование интернета
    –4
    Ну, собственно, тo же самое возражение, что и прочие. Как я и говорил, будем переучивать нерадивых админов. Введем некий стандарт на такого рода заглушки, по принципу sitemap, только в нашем случае администратор ресурса будет предоставлять набор доменов, которые он взялся обслуживать. Нет, ну на нет и суда нет — пусть ждет, может во вторичном режим краулер доберется до анализа таким образом «скрытых» доменов.

    Приниципальных возражений я не вижу. Да и вообще уже ТЗ вырисовалось из моей идеи )

    Расширение адресного пространства, про то что вы ниже написали про IPv6 — это будущее уж очень далекое, и по сути ничего не меняет. Просто больше пустоты будет среди IP с открытым 80 портом, точнее аналогов этому.

    Тут же вот какое дело, я занимался как то биоинформатикой, и по сути это все та же задача, чем я занимался и там. Искал к примеру определенный ген белка в организмах. Тут по сравнению с этим детский лепет. Там всевозможных исключений из правил еще больше чем тут. Но если проводить аналогию, то я хочу основываясь на первичном — секвенсе ДНК найти ген (пространстве IP набор доменов). Но проблема в чем, ген как токовой найти нельзя, т.к. они все модифицированые и нужно искать вначале наиболее константные и дальше исходить из них или гадать на кофейной гуще и решать ген это или нет (т.е. заниматься выравниванием последовательности, без знания структуры).

    Так вот к моему удивлению, люди предпочитают основываться не на первичной информации, а на вторичной и в итоге гадать на кофейной гуще (в биоинформатике та же проблема, только поданная под другим соусом).

    Поэтому как бы там не было, вначале надо включить в рассмотрение, те кто прямо отдают информацию, и потом заниматься загадками. Но к моему удивлению майнстрим идет всегда против этого простого принципа.

  • Картирование интернета
    0
    Это наверно самый интересный тезис, из всех комментирующих. Спасибо. В принципе я доволен как происходит дискуссия, все свои опасения, догадки и уточнения, которые надо было сделать — люди меня поправили. Просто многие не готовы к нетрадиционной точке зрения, поэтому заговаривают меня и минусуют. Не первый год замужем :)

    Тут есть два аспекта — идеологический и технический.

    1. Конечно, именно так и делается сейчас. И на этом собственно я и стараюсь построить различие. Здравый вопрос заключается в том, чтобы знать какие вообще есть сайты, и на каких устроуствах они работают. В силу разных причин это сделать не просто. Минусы этого как тут уже говорили — полицейское государство, удушение авторским правом и прочие. Плюсы — порядок и возможность анализа. Скажем та жа коммерция — сравнение цен в интернет магазинах, одного и того же города. Как это сделать без территориальной привязки — никак. В итоге людей дурят — ведь известно, что экономика построена на неиформированности о реальном рынке. И это только один пример, возможности анализа описанного образа.

    Поэтому, чтобы иметь доверие пользователей — нужнен поисковик, который ранжирует только сайты про которые все известно. И когда про них прямо не известно устройство на котором оно работает, или адрес (юридический или физический — решается простыв предоставлением провайдером) от имени кого этот сайт работает — то такие сайты надо не показывать по умолчанию, и включать в поиск лишь в настройках, запрятанных в бразере.

    И ранжирование само по себе должно быть прозрачным процессом, и не строится на частоте ссылочности. Т.е. 1. сейчас нет списка доменов упорядоченных по PageRang и прочим альтернативам, а также нет тематического разделения. Все только косвенные признаки. 2. частота цитирования ничего не говорит о значимости, так же Википедия пример простой накрутки ссылками, т.к. у них каждая странца ссылается на другую, да еще ражные разделы ссылаются друг на друга. Вот вам и результат поднятия в рейтинге.

    Ну и потом, то что вы написали про «краулер» это как раз вторичный способ. Ну подумайте сами — все равно надо начинать с какиех то ссылок, чтобы найти другие ссылки. В итоге не раз можно нарваться на замкнутый в самом себе граф и не видеть другой граф. Нет основания для отдания предпочтения. В моем же случае, когда этот принцип конечно тоже будет по поискам ссылок — это вторично, но первично это ссылки на первых страницах сайтов имеющих IP соответствие. И это справедливо и дает доверие.

    2. Технический вопрос. Вы думаете поиск по принципу «краулера» реализовать проще, чем поиск по IP — подчеркну для первичного сбора информации (что я и назвал картированием)? Нет, думаю это сложнее. Тут надо не просто пропинговать все IP, а скачать страницы всех ссылок, чтобы найти другие ссылки — т.е. в сотни раз медленее. И в отличии о первого способа, не очень то подъемно в «кустарных условиях», а именно наличие «кустарный условий» заставляет находить более приемлимые решения, и тогда возможна конкуренция в среди поисковиков — чуть ли ни каждый сам себе может написать поисковик, и не кушать коммерческие продукты, цена которым станет копейки.

  • Картирование интернета
    0
    Хотя что то в этом есть. Основное время у меня уходит на проверку таймаута каждого асинхронного вызова, т.е. 256*N ожиданий AsyncWaitHandle.WaitOne(waitTimeSpan, false), после чего я уверен, что каждый в отдельности или прождал 500 ms или получил ответ.

    Но в вашем варианте можно просто заснуть на 500ms и ждать чуда. И проверив это, действительно 95% (от более тщательной проверки таймаута) за это время получается отпросить.

    И да, притормаживания начинаются на том же самом уровне, что я написал выше 256*16, т.е. 4к. т.е. 80 сек привратили ну скажем в 5 сек, с небольшой погрешностью в опросе.

    Спасибо, помогли найти узкое место.

    А вот по поводу коммента ниже — мимо. «по вашей схеме нужно 500*20.000 IP адресов» — что за глупости? сами придумали, и мне приписали какую то схему…

    Дальше «имя домена сразу же появляется где-нибудь в открытой базе whois» — опа, а там искать не надо :), а в их сервесе как то я не наблюдал «дать новые домены».

    А подробнее, я отвечу PHmaster — он написал более классическую схему, о которой стоит поговорить отдельно.

  • Картирование интернета
    –3
    ох, сказочник… сделай что нибудь руками…
  • Картирование интернета
    0
    Действительно, Ваше замечание верно. Правда, как я и говорил выше сильно оптимистично, но тем не менее. Вот что у меня получилось.

    Если асинхронно посылать запросы и ждать их завершения (синхронизировать для записи в файл) сразу для 256 ip адресов, то на это уходит 23088 ms против 26838 ms при полностью синхронном ожидании. Действительно, таймаут можно увеличить в этом случае до 500ms и это влиять существенно не будет: 23146ms против 122059 ms.

    Ну реальная производительность увеличивается если число асинхронных запросов увеличить скажем 256*4, уже дает 31830 ms.

    Но тут имеется и верхняя граница. Ни чего делить по кол-ву ядер не нужно, C# при асинхронных вызовах сам все успешно делит на потоки, а система под разные потоки выделяет необходимое число загрузки ядер. Так скажем, у меня 2 процессора по 4 ядра. Если я выполняю все синхронно задействуется примерно 12% общего времени CPU. Теперь я сделал тест на асинхронный скан 256*N ip адресов, при этом процессорное время бегало от 20% до 60%, ну в среднем 50%, скажем так было задействовано 4 ядра.

    Результат:
    256*4 дает 31830 ms
    256*8 дает 45242 ms
    256*16 дает 79411 ms
    256*32 дает 168464 ms
    256*64 недождался

    т.е. с ростом асинхронных запросов без синхронизации производительность вначале растет, а потом падает. Выше 256*16 уже идет замедление. Посчитаем выигрыш при 256*16 = 80 сек. * 16 = есть вероятность что получу за 21 минуту вместо 109 упомянутых в статье. Но там однопроцессорное время, приведем 109/4 — 21 = 33 мин. выигрыш, т.е. где-то 160% чистый выигрыш
  • Картирование интернета
    0
    Проблемы в том, что они размазаны никакой, пусть они балансирую нагрузку. Речь же о публичности/легкой доступности этой информации, а тут вы лукавите. По IP можно было бы получить список всех сайтов, использующих этот IP (я же не говорил, что мне нужно однозначное соответствие). Кстати, бот гугла как то находит эти сайты? Откуда он их узнает если они появились только что?

    Ну, и конечно, пока это лишь идея о «поисковиках нового типа» — никто с этим считаться не будет (капитан америка), но если бы тот же гугл по умолчанию не индексировал бы такие «крупные сайты», то думаю от их «крупности» ничего бы не осталось бы. Ну, а так пока что «мифический поисковик» будет работать с сайтами «менее крупными», но с публичной информацией.Их я думаю тоже достаточно :). А хитрицы пусть покурят в сторонке, честно говоря я не понимаю тех кто желает скрыть IP сайта, кроме явно жуликов и закрытой информации. А приватный сектор и жуликов исключить из поисковиков — это лишь на благо. И речь же как раз о том, что доверия к индексированию нет, и то что это индексирование мало что отражает.

  • Картирование интернета
    –3
    Ну это дорога с двустороним движением, скрывать связь ip-домен — это исключить сайт для поиска в поисковиках, скажем так «нового типа» поддерживающих прозрачность веб-владельца. И еще вопрос, чего больше захотят пользователи :)
  • Картирование интернета
    0
    Я вполне себе отдаю отчет, что сейчас в этом отношении творится полный бардак, который и описал в статье и на каком уровне можно считать, что IP принадлежит стране. Нужно/ненужно — это ваше сугубо личное мнение, основанное на том какую цель Вы приследуете.

    На первом этапе, отрезать русскоязычные сайты, находящихся не на российских IP — это не проблема вообще. Найти и и выделить их тоже не проблема — определить по языку используемому на сайте. Не проблема отрезать — потому что, нужно понимать главное — поисковику должны докладывать где и какие страны. В идеале, любой сайт должен сообщать свою страну вплане физического расположения — но это, как я и написал легко выяснить, а так же свой язык — скажем в заголовке HTTP, а сайты же не подчиняющиеся этой хорошой манеры, надо просто исключить из поиска. Далее все зависит от желаний пользователя — хотят они понимать куда они заходят и какой контент ищут — такой поисковик будет пользоваться успехом, нет — воспользуются другим.

    Но такого рода поисковика я пока не вижу, и в этом проблема. «ищу я к примеру «mvc framework»» — надо вам и указать Вы хотите объяыснение получить на русском, английсом или китайском? Используя вышеописанное вам и найдут соответствующие из проверенного контента без мусора. (добавить мусор, не проблема, сложнее его убрать)

  • Картирование интернета
    0
    В том числе и для этого — ага. Только не для жесткого запрещения, а по желанию пользователя ограничить поиск по стране.
  • Картирование интернета
    0
    На самом деле, я и использую неблокируемые (асинхронные) сокеты, жду от них ответа 100ms. Действительно, можно сделать по другому, о чем я уже написал выше (и что по сути и используется в masscan/nmap). Но мне не хотелось, делать это асинхронно (хотя может это и окажется выгодно). Но думаю вы преувеличиваете возможности такой параллельности. Действительно, есть проблема «провайдер не заблокировал канал, посчитав ваш трафик SYN Flood атакой». Но и кроме того, что надо послать запрос и получить ответ, надо еще записать ответ в файл (делать это асинхронно, не удобно). Придется все равно синхронизировать ответы в какой-то структуре в оперативной памяти и выгружать на диск переодически. На первый взгляд, мне не показалось это быстрее, но можно попробовать, если это ускорит раз в 10 тоже уже хорошо.
  • Картирование интернета
    0
    действительно, можно попробовать не ждать ответа с каждого IP как я делаю, но не думаю, что это действительно так быстро, хотя может и ускорить положение дел. На днях попробую. Спасибо за идею.
  • Картирование интернета
    0
    * Пингом я назвал это условно, там C# функция tcpClient.BeginConnect(ipAddress, Port, null, null);
    * сетей провайдеров домашнего интернета — там вполне могут быть веб-сайты
    * 1 ip != 1 сайт — а я и не говорил такого, но проверить каждый IP — чтобы понять где есть сайты, и наоборот как сайты используют IP достаточно важно. Про актуальность неясно — вопрос лишь в частоте проверки.
  • Наличие точки зрения как проблема современного общества и IT-индустрии
    +2
    Может вначале стоит почитать ну к примеру Канта, поупражняться в доказательстве, что мир конечен, а потом доказать, что бесконечен… понять что многие ИТ-специалисты в этом упражняются по долгу службы, и потом написать подобную статью, но уже имея больший «кругозор»?
  • Десять лучших городов мира для удалённых команд и фрилансеров
    0
    Итого, сайт почти верно говорит если разделить на 2…

    Т.е. 35к = это что-то около 700 EUR? Ну скажем я сейчас под Ригой плачу 100 EUR в своей квартире, если взять в кредит то было бы 300 EUR, если снимать в Риге ну макс 400… еда и того меньше 50-80 EUR на неделю на семью, если ходить в кафе то 10 -15 EUR на троих плотно поесть и выпить пива

    Так а какого фига тогда в Москве делать :)
  • Десять лучших городов мира для удалённых команд и фрилансеров
    +2
    А что в москве реально надо 3000 EUR чтобы выжить в месяц?
  • Десять лучших городов мира для удалённых команд и фрилансеров
    0
    Странно, что сюда попала моя родная Рига :)… скромнее надо быть, тем кто пишет с приставкой «не» :)

  • Наличие точки зрения как проблема современного общества и IT-индустрии
    +2
    Мне одному показалось, что тут один философ с очень большим эмпирическим исследованием ооочень объективно сделал вывод о узости мышления ИТ-специалистов, и посоветовал размазать свое мнение по бутерброду информационного мусора?
  • JavaScript to TypeScript — трудности перевода
    0
    Хвастаться виртуальными бонусами еще смешнее :) Может лучше все же годами опыта?
  • JavaScript to TypeScript — трудности перевода
    –3
    Написал 20-летний стажер :)
  • JavaScript to TypeScript — трудности перевода
    –1
    И где же тут ошибка? Я разве где-то написал другое? Я именно про разное поведение this и написал, а lair переписал это только своими словами и ничего более :)
  • iOS vs WPF — сложное против мелкомягкого
    0
    Полностью Вас поддерживаю, в последнию неделю и моей кармы коснулась такая участь, вот подумываю наверно уйти с хабра, хотя иногда приличные люди тут встречаются :)
  • JavaScript to TypeScript — трудности перевода
    –9
    Ну, и кто это здесь заносчив :) заканчивайте говорить в стиле Ad hominem — это Вас не красит.

    " трёхдневное знакомство с TS как глубокое понимание предмета"

    Однако, мне этого было достаточно, чтобы перевести мое проектик. Все остальное придумыли Вы сами, я же поделился теми трудностями с которыми столкнулся. Ну, и в скобках заметим, Вы читаете мою статью — с удовольствиям почитал бы статьи здешних умников, однако таких статей нет.

    «судя по ошибкам в статье, вы также мало знакомы с C#»

    смешно :) Может стоит вначале назвать в чем ошибка, а потом уже что-то утверждать?

    P.S.
    Приезжайте к нам, может и я устрою вас на работу :)
  • JavaScript to TypeScript — трудности перевода
    –13
    Да, нет там ничего по делу :) Объяснять очевидности мне тут не интересно. Но если вам реально интересно, пишите в личку — попробуем разобраться. А так это очередной холивар, мне он не интересен.
  • JavaScript to TypeScript — трудности перевода
    –16
    Ну, я рад, похоже уже и без меня разобрались… надо еще что-то ответить или разберетесь со школьником сами?
  • JavaScript to TypeScript — трудности перевода
    –21
    А вы не пишете свои глупости и на этом разойдемся.
  • JavaScript to TypeScript — трудности перевода
    0
    О каком проекте речь? проект VS?