Вот слышал что можно выкачать чужой сайт через телнет или другими прогами. Даже на пиратских дисках встречаешь полностью готовые сайты. А как можно защитить себя от этого, ведь будет обидно, что твоё произведение искуства кто может изуродовать.
Ежедневно обновлять сайт, чтобы любая копия были устаревшей
Все технические и программные средства защиты мешают обычным пользователям с вполне хорошими намерениями, от тех, от кого вы хотите защититься же не спасают.
Вот слышал что можно выкачать чужой сайт через телнет или другими прогами. Даже на пиратских дисках встречаешь полностью готовые сайты. А как можно защитить себя от этого, ведь будет обидно, что твоё произведение искуства кто может изуродовать.
Люди здесь озабочены тем, чтобы ихи доры СКАЧАЛИ, а не "защитить себя от этого"
Уважаемый, kolya, ответьте, пожалуйста на несколько вопросов:
1. А как вы относитесь к тому, что посетитель сохранит одну или несколько страниц вашего сайта на диск?
2. А если он это сделает, чтобы почитать их в офлайне?
3. А если ему показалась полезной не одна страница, а весь сайт?
4. А если вашего сайта уже нет, а информация на нём интересна людям? - это относится к пиратским дискам
Лично я не против, если мой сайт будут целиком закачивать. Более того, я смотрю, как сайт выглядит без css, которые Teleport не всегда умеет правильно загрузить.
Я сама часто скачиваю сайты целиком и мне понятно, зачем люди это делают. Далеко не всегда у них плохие намерения ("изуродовать произведение искусства"). Чаще всего они просто хотят прочитать то, что вы на сайте выложили (ДЛЯ НИХ ЖЕ!!!). А делают они это таким способом, потому что так быстрее и удобнее: не надо всё время щёлкать Файл --> Сохранить как... К тому же, сохраняется структура сайта, что аккуратнее вороха страниц.
Но от некоторых вещей и я была бы не прочь защититься:
когда ставят прямые ссылки на твои файлы
когда берут твои тексты, а потом мямлят что-то невнятное в своё оправдание (когда я совсем не против перепечатки, если они выставят копирайты)
Antileech-системы (наверное, их и настраивают неправильно) -- абсолютный геморой! Если вы посмотрите несколько фотографий, то, юридически, вы скачали несколько файлов и больше вам не положено!
Если у вашего провайдера есть прокси (маскирующий IP), то запросто может оказаться, что другой клиент провайдера уже заходил на этот сайт до вас. А вам будет выдаватсья вот такое сообщение: "Вы уже скачали 160Мб сегодня. ВАМ МАЛО?!!!
Ну уж если сервер не всегда в состоянии определить, какой у вас броузер... Подъезжаешь к нему на Опере, а он кричит "Уберите ваш старый Netscape"!
То чего говорить об эффективности специальных систем.
УЖАС!
Я знаю несколько доморощенных способов прекратить "утечку информации", но они очень трудоёмкие. И к данной теме не относятся.
Страницы 1. можно скриптом запретить сохранение страницы, либо копирование с неё, либо просмотр исходного кода.
Недостаток: это заставит всех пользоваться оперой или файрфоксом, поэтому делайте так, если считаете, что IE не место на просторах интернета.
2. запретить копирование со страницы тегом <body oncopy="return false">.
Недостаток: он тоже только для IE. К тому же, никто не помешает посмотреть исходных код и скопировать текст оттуда
3. добиться первого места в поисковиках, сделать свой сайт таким популярным в своей области, чтобы люди в первую очередь заходили туда. И если они увидят перепечатку ваших материалов в другом месте, то их первой мыслью будет: "Эй, я это уже видел на www.somehost.ru! И это. И это." И сами сделают выводы, кто есть кто.
Недостаток: легко понять, трудно сделать.
Прямые ссылки на файлы 3. мой любимый! Поставить пароль на доступ к файлу, вывесить его на главной странице своего сайта. Таким образом, даже при наличии прямой ссылки, никто не сможет ничего скачать, если не зайдёт к вам на сайт (а там увлечётся и погуляет по нему немного
Недостаток: не для бесплатного хостинга, т.к. для этого нужен доступ к .htaccess
4. модификация п.3. Упаковываете файлы в запароленные архивы, вывешиваете пароль на вашем сайте.
Недостаток: пароль-то иногда менять нужно (лучше, если каждый день), для этого придётся каждый раз загружать архивы заново.
Проблема скачивания сайтов заключается в том, что при скачивании сайта соответственно увеличивается трафик, а у некоторых хостеров при превышении лимита трафика, доступ к сайту автоматически прекращается