sonyps4.ru

Коде powered by dle. Удаляем стандартные копирайты в DataLife Engine

Как «гамбургер» поможет повысить конверсию, почему подписку лучше подтверждать дважды - и другие тренды наступившего года. Новый год уже вступил в свои права и маркетологи активизировались в поисках средств генерации лидов и увеличения конверсии. Попробуем предугадать некоторые тенденции наступившего года.

Интересные экраны загрузки landing page

Возможно, потребители не хотят ждать ни минуты, когда нажимают на ссылку, перенаправляющую на целевую страницу. Вместо этого им нужен сайт, который будет «выскакивать» практически сразу, не утомляя пользователя долгой загрузкой, сайт - который будет интересен и прост. Предприниматели хотят не только того, чтобы сайты загружались быстрее. Им нужно очаровать пользователя и убедить поделиться своими личными данными. Потребители уже знают, что их ждет интерактивный экран во время загрузки, а что, если чаще использовать этот элемент дизайна?

Гамбургер-меню landing page


Согласно ресурсу Digital Telepathy, многие сервисы предпочитают скрытое меню, чтобы сэкономить место и упростить адаптацию сайтов к мобильным устройствам. Иконки и опции появляются только тогда, когда читатель наводит курсор на определенную область. Такой специфичный дизайн помогает избежать загромождения информацией вашего сайта. В результате, пользователи могут сосредоточиться на заполнении контактной формы, ни на что не отвлекаясь. Эта тенденция позволяет заполнить лендинг пейдж большим количеством контента, и предоставляет потребителям небольшой сюрприз, когда они осознают свои возможности по поиску на сайте.

Мобильная оптимизация landing page

По данным Google, в 10 странах, включая США и Японию, пользователи предпочитают поиск через мобильные устройства. В результате, оптимизация лендинг пейдж под мобильные девайсы остается важной тенденцией наступившего года и в первую очередь проявляется в дизайне. Разработчикам необходимо создавать мобильно-отзывчивые сайты, которые могут подстраиваться под любой экран, будь то смартфон, планшет или что-то еще.

Landing page и двойное подтверждение подписки


Чтобы охватить больше клиентов и собрать максимальное количество информации, создатели лендинг пейдж стараются избегать подписки с одиночным подтверждением. Двойное подтверждение считается более точным способом сбора важной информации. Если потенциальные потребители случайно подписываются на почтовую рассылку, они могут обновлять свои предпочтения при помощи этого инструмента. Многие организации создают лендинг пейдж, чтобы в короткие сроки получить важную информацию о клиентах и их интересах. Каждый год у сайтов появляются новые функции, которые облегчают этот процесс. В 2016 году контент-менеджер компании Lander Йен Пабло Кастро советует сосредоточить внимание на мобильной оптимизации, использовать в дизайне сайтов такой элемент, как скрытое меню и предложить своим клиентам двойное подтверждение подписки. Все эти инструменты помогут привлечь аудиторию и наладить с ней более плотное взаимодействие.

Изначально модуль задумывался для выявления "медленных" страниц и/или страниц создающих слишком высокую нагрузку.
Но в процессе написания он стал обрастать все большим и большим функционалом, благодаря чему я теперь не могу перечислить все области его применения. Но могу сказать однозначно, он будет полезен абсолютно всем сайтам и администраторам, которые желают знать что происходит у них на сайте.
Большая просьба подробно прочитать все описание, в нем я постараюсь наиболее подробно перечислить все возможности данного модуля.

Главная страница, данные:
Данные предоставлены с 3х сайтов:



Полученные результаты можно сгруппировать кликнув по параметру прямо в таблице.
Гуппировать можно по: коду страны, IP адресу, URL, типу страницы, количеству запросов в БД (базу данных), поисковому боту, типу запроса.
Иконка рядом с IP это User-Agent посетителя:

Имейте ввиду, что злоумышленник может легко подставлять любой User-Agent и представляться хоть гуглоботом, хоть яндексом.
Красным цветом подсвечивается IP адрес который по данным базы сайта blocklist.de является каким-либо ботом или еще чем-то вредным.
Общее время окрашивается оранжевым цветом если время загрузки превысило 0.5 сек, красным - если дольше 1 сек и если дольше 2 сек, то приписываются восклицательные знаки.
Количество запросов иногда может быть и 100 и 1000 и даже 5000. Это нормальная работа движка, раз в 2 часа крон переносит количество просмотров новостей из одной таблицы в другую (если включено кеширование просмотров).

Главная страница, фильтры и прочие параметры:
Непосредственно над таблицей с данными выводится форма с параметрами по которым можно отфильтровать, искать, группировать и сортировать полученные результаты.
Исходное состояние формы, ни один параметр не выбран:


Выбраны несколько параметров:

При группировании результатов по какому-либо параметру в таблице добавляется колонка "Количество".
Пример группировки по URL:


Таким образом легко можно посмотреть какие страницы пользуются популярностью за любой промежуток времени.

Группируем данные по IP:


Тут видно кто сколько сделал запросов, кликнув по IP можно посмотреть все его запросы. Если был выбран диапазон дат, то будет отображена активность только за выбранный промежуток времени.

Группировать можно по одному любому из параметров представленных на скриншоте:

Так же можно отсортировать результаты по любому из параметров по любому направлению. Вот пример страницы где показаны страницы с самой долгой загрузкой:

Отдельно опишу функционал кнопок:
Кнопка "Сбросить все параметры " обнуляет все выбранные параметры, т.е. просто открывает исходную главную страницу.
"Экспорт в Excel " - позволяет скачать все отфильтрованные результаты в текстовом формате, которые легко импортируются в Excel файл простым перетаскиванием файла в рабочую область программы Excel.
"Очистить лог " - удаляет из базы все отфильтрованные результаты. Если не выбран ни один из фильтров, то очищена будет вся таблица.

Страница статистики
Для удобства и наглядности можно посмотреть общую статистику по определенным параметрам:


Страница с графиками
Это больше экспериментальный раздел. Тут выводится только график посещений и диаграмма ботосодержания в общем трафике


Тут же хорошо видно, когда начинается аномальная активность со стороны ботов, людей или еще каких зловредов.
Так же можно ограничить вывод статистики, например за последние 3 дня:

Страница с подозрительными IP адресами
В модуле можно включить анализ активности, который наблюдает за активностью пользователей и при достижении заданных параметров пользователь добавляется в список подозрительных и админу отправляется письмо с уведомлением.
Уведомление отправляется не чаще 1 раза в час.
Под заданными параметрами подразумевается совершение X запросов за Y минут. X и Y - можно изменить в настройках.


Результаты отсортированы по общему количеству запросов. В колонке даты стоит дата фиксации последней подозрительной активности. Красным подсвечены адреса которые находятся в списке подозрительных у сервиса blocklist.de
Если вы уверены, что IP адрес не является зловредом или это поисковый бот, вы можете добавить его в "Белый лист", список адресов на которые не будет реагировать анализатор подозрительной активности.
С одного адреса совершались запросы с частотой 6 запросов в секунду. Вероятнее всего это какой-то бот. А вот что делать с ним - решать уже вам. Заблокировать в htaccess или проигнорировать.

Настройки



Подробно описывать все параметры не буду, там и так вроде все ясно, опишу только непонятные.
Анализ . Сейчас стоят параметры 10 запросов за 1 минуту. Т.е. любой пользователь или бот, который зайдет на сайт более 10 раз в течении 1 минуты - будет считаться подозрительными и будет занесен в базу. А если указан E-Mail адрес, то так же будет отправлено уведомление на почту.
Браузер . В базу записывается значение User-Agent пользователя. Этот параметр увеличивает объем памяти в БД, но если это не критично, то желательно не выключать.
Реферер . В базу записывается адрес - откуда пришел посетитель. Аналогично браузеру так же увеличивает объем БД.
Количество записей на страницу . Сколько записей выводится в админке на главной на 1 страницу.
Время хранения лога . Модуль автоматически удаляет старые данные.
Подсветка ботов . Этот параметр позволяет проверять все IP адреса по базе сайта blocklist.de Данные с сайта обновляются автоматически при входе в админку 2 раза в сутки.
Белый список IP адресов . В списке с новой строки перечислены IP адреса поисковых ботов. В данном случае несколько гуглов и один яндекс. Можно записывать как полный адрес, так и первые несколько его чисел, у поисковиков довольно таки много IP адресов, чтобы перечислять их всех
Идентификаторы ботов . Тут перечислены все основные боты. Этот параметр позволяет группировать/фильтровать по общим ботам. Например только Yandex, а у него уже подвиды: YandexBot, YandexMobileBot, YandexMetrika и т.п.
Внешняя база данных . При большом желании можно хранить лог в другой базе данных. Лично я не рекомендую использовать этот параметр, потому что это может увеличить время загрузки страницы, особенно если сервер стоит в германии, а БД в США.

По вопросу о нагрузке.
Она ничтожно мала. Скорость работы никак не сказывается на работе сайта. Со включенным анализом активности, средняя скорость работы модуля - 0.0012 сек. Это при активности 2000 просмотров в час.
Установка модуля заключается в заливке файлов на сервер и копировании 1 строки в 1 php файл.

Информация
Стоимость модуля: 15wmz
Лицензия выдается под 2 сайта .
Стоимость доп.лицензии: 5wmz
Для работы модуля - требуется ionCube Loader v.5.x

Мало кто знает, что в DataLife Engine убрать стандартные копирайты (официально) можно только в том случае, если вы купили лицензию. Но вот незадача, после активации движка, копирайты все равно остаются на месте. Отсюда возникает вопрос: «Как же убрать копирайты в DLE? ». Сегодня я дам вам четкий ответ на него, а в качестве небольшого бонуса расскажу о некоторых скрытых ссылках, которые присутствуют в этой CMS и о которых вы можете даже не подозревать.

Удаляем стандартные копирайты в DataLife Engine

И так, посмотрев исходный код вашего сайта, можно наблюдать следующую картину:

Мы видим в head тег generator и в конце страницы строчку с копирайтом.

Для того чтобы удалить тег generator , открываем файл engine.php в папке /engine/ и примерное на 982 строчке , полностью удаляем тег:

Чтобы удалить копирайт в конце страницы, открываем файл main.php в /engine/modules/ и почти в самом конце удаляем строчку:

Echo "\n\r\n";

Помимо этого, если вы используете RSS-ленту для формирования фида на вашем сайте (по умолчанию, он находится по адресу http://your_site.com/index.php?mod=rss, то при просмотре исходного кода вы можете увидеть еще один копирайт вида:

DataLife Engine

Чтобы убрать его, откройте файл rss.php в папке /engine/ и в двух местах удалите тег:

DataLife Engine

Или же замените его содержимое, например, названием вашего сайта.

Со стандартными копирайтами разобрались, теперь перейдем к ссылкам.

Удаляем ссылки на «левые» сайты в DataLife Engine

Когда мы ставим на сайт какой-то шаблон, и в нем присутствуют копирайты автора – это нормально, т.к. человек старался и предоставил нам возможность бесплатно пользоваться шаблоном.

Но вот, когда CMS, в прямом смысле, пичкают левыми ссылками, которые никакого отношения не имеют к движку – это, честно говоря, наглость.

И сейчас мы с вами почистим наш сайт от таких ссылок. Если вы скачали движок не с официального сайта – чаще всего ссылки могут быть прописаны:

  1. На внутренних страницах новостей;
  2. На статистических страницах;
  3. На странице облака тегов.

Если посмотреть исходный код полной новости, видно – что умельцы уже успели прописать ссылочки на свой сайт, что, кстати говоря, нам совсем не нужно.

Для того, чтобы вычистить этот мусор – сделайте следующее.

1. Откройте файл show.full.php

$tpl->set("{full-story}",

и всю ее замените на:

$tpl->set("{full-story}", $row["full_story"]);

Отлично, полдела сделано, и мы избавились от ссылок в полной новости.

Давайте теперь проверим статистические страницы, и если там есть ссылки – как можно скорее их удалим.

2. Откройте файл static.php в папке /engine/modules/. В нем найдите строку, содержащую:

$tpl->set("{static}",

и всю ее замените на:

$tpl->set("{static}", $template);

3. И напоследок проверим наше облако тегов. Для этого откройте файл tagscloud.php в папке /engine/modules/. В нем найдите строку, содержащую:

Else $tpl->set("{tags}",

и всю ее замените на:

Else $tpl->set("{tags}", $tags);

Ну вот собственно и все. Мы с вами почистили DLE от стандартных копирайтов и убрали ссылки на левые сайты.

Если что-то не получается, или возникают ошибки при редактировании файлов – пишите в комментариях, с удовольствием вам помогу.

Данный модуль является упрощенной версией монитора нагрузки и предназначен для ведения лога всех запросов к сайту с записью информации о скорости загрузки страницы, количестве запросов и т.п. С его помощью можно легко отслеживать и при необходимости чинить "тяжелые" страницы.

На главной странице модуля выводится упрощенная поисковая форма фильтра и таблица с данными:

Можно применить фильтр по дате, по IP или совместно. Например посмотреть все запросы с определенного IP за конкретную дату. Или просто отсортировать по общему времени загрузки, чтобы посмотреть какие страницы медленно загружаются. При клике на IP в таблице - применяется фильтр по выбранному IP. При клике на URL - открывается выбранная страница в новом окне.

Примечание: Календарь работает только в новой админке.

Данные по одному IP за конкретную дату:

Кнопкой "Очистить лог " можно удалить все полученные результаты. Если оставить все поля пустыми, то удалены будут все данные.

По умолчанию данные чистятся автоматически, удаляются все записи старше 7 дней . Количество дней можно настроить в файле index.php
Нагрузка от модуля незначительная, при средней посещаемости время выполнения порядка 0.001 сек.


Популярность CMS DataLife Engine не уменьшается среди веб-мастеров выбирающих движок для создания своего проекта, но существует множество негативных высказываний в адрес seo-оптимизированности DLE. Разработчик с выходом каждой новой версии скрипта постепенно устраняет seo-недоработки и замечания, но не всё сразу...
В этой статье мы коснёмся вопроса, как провести внутреннюю SEO оптимизацию DLE уже сейчас и без особых проблем и знаний.

Работаем с файлом robots.txt :
User-agent: *
Disallow: /2013/
Disallow: /tags/
Disallow: /user/
Disallow: /favorites/
Disallow: /lastnews/
Disallow: /newposts/
Disallow: /catalog/
Disallow: /*page/
Disallow: /*print
Disallow: /addnews.html
Disallow: /statistics.html
Disallow: /rules.html
Disallow: /dle-rules-page.html
Disallow: /engine/
Disallow: /*?*

Host: site.ru

Внимание! Данный вид robots.txt применим для тех сайтов, где не используется модули MetaRobots, DonBot или модификации файла engine.php для управления мета-тегом robots.

Настраиваем скрипт :
Заполняем мета-данные сайта.
В Панели управления в настройках системы включаем функцию: Обрабатывать неверные URL ЧПУ
Для получения хорошего результата оптимизации, мета-данные на вкладке дополнительно при публикации и редактировании новостей, мета-данные категорий и статических страниц необходимо заполнять вручную, стараясь избегать их дублей и используя принципы seo.

Также не поленитесь вручную заполнять или редактировать на вкладке дополнительно поле: ЧПУ URL статьи, чем оно короче тем лучше(это адрес вашей страницы при включенном ЧПУ). Делайте его ёмким и коротким. Раньше использовали транслит, но теперь по определённым данным даже лучше использовать перевод, ПС его понимают и в выдаче подсвечивают. То что генерирует автоматически скрипт может иметь очень большую длину при длинном заголовке новости, поэтому не поленитесь сделайте красивый адрес новости. Не бойтесь редактировать url новостей, система обработки неверных url в dle привязана к ID новости и при изменении ЧПУ создаст 301 редирект на её новый адрес, так как ID вы не меняете.

Дополнительно обезопасим от случайного попадания в индекс админку:
Добавим мета-тег robots. Открыть файл /engine/skins/default.skin.php:
Найти:

Добавить ниже:

Закроем от индексации дубли - страницы печати:
добавив такой же мета-тег в шаблоны страниц печати: print.tpl и static_print.tpl

Найти:

Добавить ниже:

Указываем главное зеркало(с www или без и склеиваем), первых страниц навигации и несуществующий раздел - catalog , также являющийся дублем главной страницы сайта:

Открываем файл .htaccess в корне сайта:
Найти:
RewriteEngine On

a) Для главного зеркала БЕЗ www ниже добавить:
RewriteCond %{HTTP_HOST} ^www\.(.*)
RewriteRule ^(.*)$ http:\/\/%1/$1


b1) Для главного зеркала С www ниже добавить:
RewriteCond %{HTTP_HOST} ^site\.ru$
RewriteRule ^(.*)$ http://www.site.ru/$1
RewriteCond %{THE_REQUEST} ^{3,9}\ /catalog/\ HTTP/
RewriteRule ^catalog/$ /
RewriteRule ^(.*)/page/1/$ $1/
RewriteRule ^(.*)page/1/$ $1/
где site.ru - замените на свой домен

b1) или для него же универсальный от противного ниже добавить:
RewriteCond %{HTTP_HOST} !^www\.(.*)
RewriteRule ^(.*)$ http://www.%1/$1
RewriteCond %{THE_REQUEST} ^{3,9}\ /catalog/\ HTTP/
RewriteRule ^catalog/$ /
RewriteRule ^(.*)/page/1/$ $1/
RewriteRule ^(.*)page/1/$ $1/

И с дублем первой страницы дописываем решение взятое у Алаева:
Далее открываем файл /engine/engine.php (взято у Алаева ):
Найти:
if (($subaction == "showfull" or $subaction == "addcomment") and ((! isset ($category) or $category == ""))) {

Внимание ВЫШЕ добавить:
if (($config["allow_alt_url"] == "yes") && (intval($_GET["cstart"]) == 1) && (strpos($_SERVER["REQUEST_URI"], "/page/1") !== false)) {
$first_page_url = str_replace ("/page/1", "", $_SERVER["REQUEST_URI"]);
header("HTTP/1.0 301 Moved Permanently");
header("Location: $first_page_url");
die("Redirect");
}

Убирать дубль главной по адресу /index.php в 10-ой версии уже не нужно, разработчик добавил canonical для указания главной страницы.

Если у вас открыты для индексирования страницы пагинации, решим вопрос с с несуществующими страницами пагинации , например, сделали вы вывод не по 5 новостей, а по 10 на страницу или удалили часть новостей и общее число страниц пагинации изменилось в меньшую сторону:
Способ решения взят у Алаева(alaev.info)
Работаем с страницами сайта :
Открываем файл и в самом низу находим:
}
?>

ВЫШЕ добавляем:
//редирект на последнюю страницу, если в url указана страница больше чем максимально существующая
$all_pages_count = @ceil($count_all / $config["news_number"]);
if ($cstart > $all_pages_count) {
if ($all_pages_count > 1) {
header ("Location: " . $url_page . "/page/" . $all_pages_count . "/");
die();
} else {
header("HTTP/1.1 301 Moved Permanently");
header ("Location: " . $url_page . "/");
die();
}
}
//редирект на последнюю страницу, если в url указана страница больше чем максимально существующая

Работаем с страницами комментариев:
Открываем файл /engine/classes/comments.class.php и в самом низу находим:
}

ВЫШЕ добавляем:
//редирект на последнюю страницу комментариев, если в url указана страница больше чем максимально существующая
if ($this->cstart > $enpages_count) {
header("HTTP/1.1 301 Moved Permanently");
header("Location: " . $url);
die();
}
//редирект на последнюю страницу комментариев, если в url указана страница больше чем максимально существующая

Закрываем разделы со страницами дублирующими контент и служебные страницы посредством мета-тега robots:
Покупаем у Алаева выгружаем его файлы на сервер и настраиваем его, например так:
вставляем в ваш шаблон main.tpl после:
{headers}

вставить:

{include file="engine/modules/donbot.php?tag=follow&pages=newposts,lastnews,date,allnews,alltags,tags,xfsearch,catalog,pages"}
{include file="engine/modules/donbot.php?tag=nofollow&pages=addnews,feedback,lostpassword,register,rules,stats,search,pm,favorites,lastcomments,userinfo"}

вы можете выбрать другую настройку.

Данный модуль проработаннее нашего первого, поэтому и рекомендую его, тем более ставится он один раз и при обновлении движка не требует правок файлов.

При такой настройке модуля или использовании способа приведённого ниже можно сократить файл robots.txt до:
User-agent: *
Disallow: /engine/
Disallow: /*?*
Sitemap: http://site.ru/sitemap.xml
Host: site.ru

Потому что файл robots.txt уже давно для Google носит рекомендательный характер, а мета-тег он выполняет.

Открываем файл /engine/engine.php

Найти:
else $disable_index = "";

Заменить на(приведённый ниже массив рекомендован мной и его состав, может быть подобран и изменён под свои цели*):
elseif (
$do == "alltags" OR /* Страница вывода списка всех тегов */





$do == "xfsearch" OR /* Вывод новостей новостей по доп. полям */

$dle_module == "date" OR /* Вывод архива новостей за год/месяц/день */
(intval($_GET["cstart"]) > 1) OR /* Любые страницы пагинации */
) $disable_index = "\n"; else $disable_index = "";

Заменяя, удаляя или добавляя строки в массиве из списка возможных вариантов приведённого ниже, настройте запрет индексации под свои цели.

$do == "addnews" OR /* Страница добавления новости с сайта */
$do == "alltags" OR /* Страница просмотра списка тегов */
$do == "feedback" OR /* Страница формы обратной связи */
$do == "favorites" OR /* Страницы закладок пользователей */
$do == "lastcomments" OR /* Вывод всех последних комментариев на сайте, в т.ч. комментариев отдельного пользователя */
$do == "lastnews" OR /* Вывод всех последних новостей сайта */
$do == "lostpassword" OR /* Страница восстановления пароля */
$do == "pm" OR /* Страницы личных сообщений пользователей */
$do == "register" OR /* Страница регистрации нового пользователя */
$do == "rules" OR /* Страница правил сайта */
$do == "stats" OR /* Страница статистики сайта */
$do == "search" OR /* Страница поиска и результатов поиска */
$do == "tags" OR /* Вывод новостей по тегу */
$do == "xfsearch" OR /* Вывод новостей по доп. полям */
$subaction == "allnews" OR /* Вывод всех новостей пользователя */
$subaction == "newposts" OR /* Вывод непрочитанных новостей для пользователя */
$subaction == "userinfo" OR /* Просмотр профиля пользователя */
$dle_module == "date" OR /* Вывод архива новостей за год/месяц/день. Заменяет собой сразу все три следующие строки */
($year != "" and $month == "" and $day == "") OR /* Вывод архива новостей за год */
($year != "" and $month != "" and $day == "") OR /* Вывод архива новостей за месяц */
($year != "" and $month != "" and $day != "" and $subaction == "") OR /* Вывод архива новостей за день */
(intval($_GET["cstart"]) > 1) OR /* Любые страницы пагинации. Заменяет собой сразу две следующие строки */
($dle_module == "main" and (intval($_GET["cstart"]) > 1)) OR /* Страницы пагинации для главной страницы */
($do == "cat" and $category != "" and $subaction == "" and (intval($_GET["cstart"]) > 1)) OR /* Страницы пагинации только для категорий */
($do == "cat" and $category != "" and $subaction == "") OR /* Вывод любой категории */
$do == "cat" and $category_id == "X" and $subaction == "") OR /* Вывод определенной категории. X заменить на id категории */
$catalog != "" /* Просмотр каталога по буквенному идентификатору */

(!) Необходимости подключать вывод мета-тега нашим способом в полной новости и на статических страницах нет, так как это уже реализовано в версии скрипта 9.7 и выше.

Устанавливаем бесплатные модули :
Два модуля от Алаева:

LinkEnso - SEO модуль кольцевой внутренней перелинковки для движка DLE и вывода ненумерованного списка ссылок на страницах публикаций сайта.
Бесплатно версии вполне достаточно, от платной она отличается только наличием в последней излишеств, которые в плане оптимизации пользы не принесут а могут наоборот при неправильном использовании навредить. Данный модуль должен заминить вывод похожих новостей и организовать кольцевую переликовку. Устанавливается один раз и при обновлении скрипта переустановка не требуется.


Уникальный модуль для SEO оптимизации главной страницы и категорий сайта построенного на движке DLE (Datalife Engine). Устанавливается один раз и при обновлении скрипта переустановка не требуется.

Далее устанавливаем модуль от seodude ака phpdude, который он уже забросил давно, но модуль полностью рабочий, промо уже неактуальное из мы из него выкинули, а устанавливается он правкой одного вхождения в один файл.

Я считаю данный способ неправильным, это обман пользователя и ПС. Раз страницы нет, значит должна выводится ошибка и не вводить пользователя в заблуждение.

Поэтому я рекомендую сделать следующее. Скрипт сам отдаёт ошибку 404, но этого как бы недостаточно для удаления страницы из сервисов ПС особенно когда на неё ещё где-то висят ссылки, поэтому добавим вывод мета-тега robots на страницы ошибок.

Открываем файл /engine/modules/show.full.php
Найти:

Добавить ниже:
$disable_index = 1;

Открываем файл /engine/modules/static.php
Найти:
@header("HTTP/1.0 404 Not Found");

Добавить ниже:
$disable_index = 1;

Открываем файл /engine/modules/show.short.php
Найти, Внимание! (3 раза):
msgbox($lang["all_err_1"], $lang["news_err_27"]);

И Внимание! ВЫШЕ добавить:

$disable_index = 1;



Загрузка...