Мало знать мат.часть (ее тоже необходимо знать, не спорю), надо уметь применять эти знания в нужном месте в нужное время.
НО, если проект прост как 3 копейки, зачем «заморачиваться» и писать сложные функции.
Я считаю, что опыт — вот главный критерий при приеме на работу в данное время. Не раз убеждаюсь уже (не только на своем примере) — теория теорией, а опыт «не пропьешь» и не получишь читая просто книжки. Причем опыт должен быть именно не на своих любительских программах (хотя и там тоже есть свои плюсы), а работы в команде. Начинаешь лучше понимать принципы построения.
У поисковиков такая позиция — кто вперед, тот и уникален. И чем чаще обновляется контент на сайте, тем чаще заходит поисковой робот. Есть одна лозейка (я правда не проверял, только думал протестить это) — если взять обычный сайт, где контент меняется раз в 3 суток примерно, то он и индексироваться будет реже, а у тебя контент меняется раз в 30 минут (например добавляешь новости). Если взять, пока тот робот не проиндексировал тот сайт (нуу скажем успеть после появления статьи сразу) и скопировать. Тот получается ты можешь спиратить текст, причем не докажешь, что он не твой, т.к. у тебя он появился раньше.
А почему бы это не сделать на уровне поисковиков допустим.
Например когда яндекс индексирует сайт и ссылки, если он нашел ссылку с таким-то контентом или еще что-то, то отсылает тебе предупреждение, если при повторном индексировании ничего не поменялось, он просто понижает к примеру ТИЦ и т.д. И так до нуля. В итоге сайт будет просто сброшен в низ в поисковиках.
И не надо перекладывать всю вину на пользователей сайтов — что уникально а что нет. А то к примеру: у кого-то открыта страница в контакте, открыты все фотографии и т.д., но в один прекрасный момент он закрывает ее, а ты уже взял оттуда картинку, пока страница была открыта. Виноват по идее сам владелец фото. Или к примеру есть сайты с архивами сайтов. Они копируют контент и сохраняют их у себя. А там к примеру были ссылки на пиратский контент.
С этим законом просто не останется нормальных доменных имен, если закрытые доменные имена снова попадут под регистрацию.
cssdesk.com/
вот тут онлайн редактор.
сверху P
снизу
.rub{ display: inline-block; font-size: 24px; line-height: 7px; border-bottom: 1px solid #000000; width:0.4em;}
НО, если проект прост как 3 копейки, зачем «заморачиваться» и писать сложные функции.
Я считаю, что опыт — вот главный критерий при приеме на работу в данное время. Не раз убеждаюсь уже (не только на своем примере) — теория теорией, а опыт «не пропьешь» и не получишь читая просто книжки. Причем опыт должен быть именно не на своих любительских программах (хотя и там тоже есть свои плюсы), а работы в команде. Начинаешь лучше понимать принципы построения.
Статья хорошая — +автору.
Например когда яндекс индексирует сайт и ссылки, если он нашел ссылку с таким-то контентом или еще что-то, то отсылает тебе предупреждение, если при повторном индексировании ничего не поменялось, он просто понижает к примеру ТИЦ и т.д. И так до нуля. В итоге сайт будет просто сброшен в низ в поисковиках.
И не надо перекладывать всю вину на пользователей сайтов — что уникально а что нет. А то к примеру: у кого-то открыта страница в контакте, открыты все фотографии и т.д., но в один прекрасный момент он закрывает ее, а ты уже взял оттуда картинку, пока страница была открыта. Виноват по идее сам владелец фото. Или к примеру есть сайты с архивами сайтов. Они копируют контент и сохраняют их у себя. А там к примеру были ссылки на пиратский контент.
С этим законом просто не останется нормальных доменных имен, если закрытые доменные имена снова попадут под регистрацию.
При чем тут 1с-битрикс и 1С? — если вы не знаете про что говорите то это ваша вина.
И по третьему пункту — если вы не знаете что это такое, это не значит что это плохо.
вот тут онлайн редактор.
сверху P
снизу
.rub{ display: inline-block; font-size: 24px; line-height: 7px; border-bottom: 1px solid #000000; width:0.4em;}