Verification: a143cc29221c9be0

Pdf на моем сайте joomla

Pdf на моем сайте joomla

Содержание

Mozilla Observatory

Очень полезный сервис от компании Mozillla. Предоставляет много ценной, целевой информации. Помогает оценить текущий рейтинг сайта и риски безопасности по разным критериям. Сервис учитывает популярные рекомендации, включая OWASP и идеально подойдет для формирования отчетов.

Mozilla Observatory check website

На выходе получаем таблицу данных в виде чек-листа:

Mozilla Observatory Scan Results

Результаты сканирования впечатляют полнотой информации — фактически вебмастер получает все, что он хотел знать о точках безопасности своего сайта. Но, главное, что для себя из этого стоит выяснить — это рейтинг. Если ваш сайт набрал 0 баллов из 100 — немедленно займитесь его оптимизацией, или нанимайте специалиста по безопасности. Для большинства сайтов, например информационных, буде достаточно и категории D, но если это корпоративный проект, то желаемым должен стать рейтинг категории A. Mozilla Observatory предоставит достаточно информации, что необходимо для этого сделать.

Кроме HTTP-сканирования, здесь еще три вкладки с проверками: TLS Observatory, SSH Observatory и Third-party Tests. Информации достаточно, и есть над чем подумать.

  • Ознакомиться с методологией, как Mozilla определяет рейтинг безопасности сайта>>
  • Посмотреть общую статистику по сайтам в Mozilla Observatory>>

Переходим к следующему инструменту.

Проверка HTTP-заголовков. Отличный чекер от компании Probely — проверит и покажет какие HTTP-заголовки учтены, а каких не хватает для обеспечения целостности безопасности сайта. Один из моих любимых сервисов.

Security Headers by Probely

15 инструментов для проверки кибербезопасности сайта

Чем важны заголовки безопасности? Они исключают возможность атаки посредством HTTP-соединения. Злоумышленники не смогут перехватить данные, которые передаются между сервером и клиентом (браузером), не смогут подменить контент, провести PHP инжекцию и устроить межсайтовый скриптинг (XSS). В сети достаточно сайтов, которые пострадали именно из-за отсутствия базовых HTTP-заголовков безопасности, превратились в «помойку» из вредоносных скриптов, редиректов, спама и фишинга. Такие сайты поисковик сразу же банит. Поэтому, если не хотите повторить их долю — рекомендую оптимизировать HTTP-заголовки сайта.

Самыми необходимыми, на мой взгляд, являются:

  • HTTP Strict Transport Security
  • X-Frame-Options
  • X-Content-Type-Options
  • Content-Security-Policy

Рекомендации OWASP по заголовкам безопасности.

Документация по HTTP-заголовкам от Mozilla>>

Qualys SSL Server Test

Неплохо будет определиться как обстоят дела с SSL-сертификатом — валидный/не валидный, какая категория и многое другое. Все это позволяет узнать замечательный сервис SSL Server Test от компании Qualys:

Qualys SSL Test

Отчет содержит множество технической информации с мельчайшими подробностями: где, кем и когда выдан SSL-сертификат, какое шифрование использует, какие TLS-протоколы поддерживает, на каких платформах и операционных системах возникают проблемы:

Qualys ssl report

Часто не качественный и не валидный SSL-сертификат может привести к солидным проблемам в безопасности и работоспособности веб-сайта. Отсутствие SSL и HTTPS — большой риск, так как открывает дорогу любым хакерским атакам. Кроме того, такие сайты хуже других ранжируются в поисковых системах и не вызывают доверия у пользователей.

ImmuniWeb

Качественный онлайн-сканер сайтов на уязвимости. В интернете много похожих сервисов, но ImmuniWeb понравился комплексностью подхода, академичностью, грамотностью. Здесь вы получаете много бесплатной подробной информации, на базе которой уже можно писать технические задания на улучшение кибербезопасности. По структуре и формату чем-то напоминает два предыдущих сервиса:

Immuni Web Security Test

Тест определяет сайт по 5 разным категориям: Безопасность программного  обеспечения, Соответствие политикам безопасности (GDPR), Соответствие PCI-DSS,  Безопасность контента, HTTP-заголовки. В зависимости от оценки, сервис присваивает сайтам разные категории: A, B, C, F.  Отчет можно скачать в формате PDF. Однозначно, один из лучших инструментов для Cybersecurity аудита.

15 инструментов для проверки кибербезопасности сайта

Detectify

15 инструментов для проверки кибербезопасности сайта

Мы провели внешние проверки. Теперь хорошо «прощупать» серверную часть, проверить отказоустойчивость сервера, например, к DDOS-атакам. Detectify уже посложнее и за своими характеристиками немного напоминает профессиональное ПО для Apllication Security (Acunetix, Netsparker и др.). Сервис условно-бесплатный — после регистрации вы получаете 14-дневный Trial-период без ограничений по функционалу. Необходимо добавить домен или IP-адрес вашего сервера, подтвердить права собственника (загрузив файл на сервер или добавив TXT-запись в DNS зону), создать профиль сканирования (определить настройки) и запустить проверку.

15 инструментов для проверки кибербезопасности сайта

Но с этим инструментом нужно быть осторожным, так как Detectify проводит стресс-тест, в котором берут участие различные парсеры и ботнеты, они проводят htttp-флуд, брутфорc-переборы, DDOS-атаки. Так что будьте готовы, что ваш сайт запросто может не устоять. В принципе, на это и рассчитано. А поэтому, рекомендуется проводить такие аудиты в ночное время или на временно закрытом сайте, а еще лучше на этапах разработки.  В опциях можно указать все необходимые настройки сканирования и отрегулировать уровень «пентеста» (от поверхностного до глубокого). Можно также включить мониторинг и Detectify будет регулярно тестировать безопасность.

Отчет здесь отличается от предыдущих сервисов — не настолько огромен и информативен, но все ровно ценен, так как система показывает КЛЮЧЕВЫЕ недостатки, из-за которых сервер может быть взломан в любую минуту:

15 инструментов для проверки кибербезопасности сайта

Простота использования, поддержка интеграции с другими сервисами (Slack, Jira, Splunk, Trello и др.), множество обучающих материалов делают Detectify одним из наиболее популярных сканеров уязвимости веб-приложений.

Google Dorks

Следующим этапом будет — разведка с помощью Google Dorks. Суть этого метода заключается в поиске уязвимостей с помощью всем известного Гугла. Дело в том, что Google сканирует сайт до дыр и если он не защищен, то все конфиденциальные материалы, служебные страницы, файлы и папки вылезут в поиске. Как раз для этого и существуют специальные операторы поисковой системы.

Рассмотрим несколько примеров:

site:domain.com (inurl:pdf OR inurl:txt OR inurl:doc OR inurl:docx OR inurl:mp4 OR inurl:avi OR inurl:xlsx OR inurl:log)— найдет и покажет в результатах поисковой выдачи все файлы указанных форматов, если они были проиндексированы (то есть, если Google получил к ним доступ). Часто тут можно найти номера банковских карт и телефонов, пароли, разные счет-фактуры, логи и отчеты и многое-многое другое. Несмотря на конфиденциальность, вся эта важная информация считается открытой, так как добровольно попадает в «загребущие руки поисковичков». Задача вебмастера сделать так, чтобы в поиск попадали только страницы указанные в карте сайта — Sitemap.xml.

site:domain.com intitle:ключевое слово filetype:pdf— найдет и покажет в результатах поиска по заданному домену все PDF-файлы, содержащие ключевое слово в заголовке Title.

site:domain.com intitle:index.of mp3 — выведет в результатах поиска содержимое директории с файлами mp3 в виде листинга. А это уже уязвимость и пространство для разного рода инжекций и манипуляций, так как злоумышленник, по сути, уже получает доступ к просмотру целой папки на сервере. Задача специалиста по безопасности запретить просмотр содержимого каталогов используя файл конфигурации сервера .htaccess или другие методы. Можете для себя поэкспериментировать и ввести в Гугле: intitle:index.of pdf intext:кибербезопасность

inurl:gallery.php?id= site:domain.com — а вот этот оператор найдет на указанном домене уязвимый к SQL-инжекциям URL и покажет в результатах поиска. Таким образом можно сканировать сайты на потенциально уязвимые URL-адреса прямо из поисковой выдачи Google.

Продвинутые операторы Гугла (Google Advanced Operators)

15 инструментов для проверки кибербезопасности сайта

***

Как видно, уже на данном этапе, не обладая знаниями и навыками пентестера или веб-разработчика, пользуясь одними лишь онлайн-сервисами и поисковой системой можно провести неплохой аудит безопасности своего сайта.

Перейдем теперь к более сложным инструментам и попробуем провести анализ с помощью нескольких утилит командной строки Linux.

Whatweb

15 инструментов для проверки кибербезопасности сайта

Веб-сканер для определения технологий, которые использует сервер/сайт.

Команды:

whatweb -v -a 3 https://domain.com

Инструкция по установке и подробное описание WhatWeb>>

Dirb

15 инструментов для проверки кибербезопасности сайта

Dirb — это утилита командной строки Linux. Она перебирает всю структуру каталогов сайта на наличие служебных, технических, уязвимых, открытых к индексации директорий сайта. С ее помощью можно, например, найти URL-адрес админки сайта, доступ к панели управления PhpMyAdmin и многое другое.

Основные команды:

dirb https://domain.com — сканировать сайт;

dirb domain.com -X .pdf — сканировать целый домен на наличие pdf-файлов.

О том как установить Dirb>>

Dirhunt

15 инструментов для проверки кибербезопасности сайта

Тот же dirb, только намного быстрее, без брута. Парсинг проводится только по основному списку потенциально уязвимых директорий, плюс можно найти поддомены. Иногда бывает нет времени ждать пока Dirb закончит длительный парсинг, и тогда приходит на помощь шустрый Dirhunt.

Команда выполнения:

dirhunt http://domain.com

Таким образом, с помощью двух утилит Dirb и Dirhunt можно «прошерстить» весь сайт на наличие лишних файлов. Задача специалиста — всех их обнаружить, удалить или закрыть от индексации (с помощью .htaccess, robots.txt и meta robots), плюс настроить корректные права доступа на все файлы и папки на сервере. Кстати в этом поможет онлайн-сервис Chmod Calcualator.

О том как установить dirhunt>>

Утилита для поиска документов и выжимки метаданных из них:

metagoofil -d domain.com -t pdf,doc,ppt -n 20 -o files -f

metagoofil -d domain.com -l 50 -n 50 -t pdf,doc,xls,docx,xlsx -o report

XSStrike

15 инструментов для проверки кибербезопасности сайта

Отличная бесплатная утилита для проверки сайтов на уязвимость к XSS и CSRF-атакам (от них страдают много сайтов, находятся на 7 месте в рейтинге ключевых рисков Web-приложений, согласно OWASP Top10 2017).

Основные команды:

python3 xsstrike.py -u "https://domain.com" --crawl— просканирует сайт и выдаст список обнаруженных уязвимостей.

python3 xsstrike.py -u "https://domain.com/custom/search/?locale=uk&text=" --fuzzer— запускает фаззинг (перебор) различных потенциально опасных параметров по уязвимому URL-адресу;

python3 xsstrike.py -u "https://domain.com/custom/search/?locale=uk&text=" --params — запускает парсинг потенциально уязвимых параметров.

Описание и документация по установке XSStrike>>

WPScan

15 инструментов для проверки кибербезопасности сайта

Популярная и очень полезная утилита для аудита безопасности сайтов на базе CMS WordPress. Просканирует сайт, выдаст технические характеристики, покажет версию WordPress и название шаблона, выведет список установленных плагинов и расскажет какие из них подвергнуты уязвимостям (дает точное название по базе CVE). Можно также провести энумерацию пользователей и узнать все логины с доступом к админке сайта. Зная логины пользователей, хакер сможет запросто провести брутфорс и подобрать пароли (если они не сложные), получив доступ к админке WordPress. Задача специалиста по безопасности — сделать так, чтобы в WPScan и других подобных утилитах было по минимуму информации по сайту.

Команда:

wpscan --url https://domain.com --enumerate u --api-token можно получить зарегистрироавшись на оф.сайте --random-user-agent

Если сайт создан на другом движке, например Joomla или Droopal — помогут аналогичные сканеры: Joomscan и Droopescan.

  • Описание и установка WPScan>>
  • Описание и установка Joomscan>>
  • Описание и установка Droopescan>>

Nikto

15 инструментов для проверки кибербезопасности сайта

Данный сканер выводит интересную информацию по серверу и HTTP-заголовкам. Его можно использовать не только для проверки удаленного веб-сервера, но и локально, установив например на сервере.

Команда:

nikto -h domain.com — сканирование по домену;

nikto -h ipadress — сканирование по IP-адресу;

nikto -h domain -p номер порта— сканирование по указанному порту.

Описание и установка Nikto>>

NMAP

15 инструментов для проверки кибербезопасности сайта

Культовый сканер интернет-сетей и веб-приложений. Обладает широкими возможностями и функционалом. Позволяет проверять безопасность не только сайтов и серверов, но и локальные сети, IoT устройства, проводить тесты на проникновение в связке с дополнительными скриптами и утилитами.

nmap IP — просканирует сетевые порты (TCP) сервера по указанному IP адресу и покажет какие закрыты/открытые;

nmap IP -sV — просканирует TCP-порты сервера и покажет какие сервисы их «слушают»;

nmap IP -sC -p 21,22,53,80,8083,3306 — детально просканирует указанные порты и выведет детальную информацию по ним;

nmap IP -sU — сканирование UDP-портов;

nmap -v -O IP — определение операционной системы сервера;

nmap IP > report.txt — сохранение вывода команда в текстовый файл;

nmap -v -sS -A -T4 IP — полное сканирование IP адреса;

nmap -sV -p 3306 --script mysql-audit,mysql-databases,mysql-dump-hashes,mysql-empty-password,mysql-enum,mysql-info,mysql-query,mysql-users,mysql-variables,mysql-vuln-cve2012-2122 IP— целенаправленное сканирование порта MySQL.

Официальный сайт и документация по NMAP>>

Infoga

15 инструментов для проверки кибербезопасности сайта

А теперь немного ОСИНТА. С помощью данного инструмента можно проверить, к примеру, корпоративные email-адреса на предмет утечек данных — утилита ищет email по всем базам и поисковым системам интернета:

python3 infoga.py --domain domain.com --source all --breach -v 2

python3 infoga.py --domain domain.com --source all -v 3

python3 infoga.py –info email@address –source google -v 3

Информация по установке Infoga>>

В заключение

Фактически в данной публикации я рассмотрел основные инструменты для самостоятельного анализа сайта на уязвимости и оценки рисков. В итоге получился небольшой чек-лист, по которому можно проводить экспресс-аудиты по кибербезопасности. Но этого, конечно, недостаточно для работы с масштабными корпоративными проектами, какими-то коммерческими платформами, программным обеспечением, операционными системами. В таких проектах, как правило, подключается уже целый штат специалистов (QA Engineer/Pentester/Digital Forensic Specialist/Malware Reverse Engineer/Application Security Engineer/DevSecOps) и используются инструменты совсем другого характера, например: Hydra, SQLmap, Metasploit, Patator, OWASP Zap, Burp Suite, Wireshark, Snyk, SonarQube, VeraCode, Shodan, Maltego и другие. Надеюсь, обо всем этом я расскажу в следующих статьях.

Из чего состоит CMS

CMS (Content Management System) переводится как это компьютерная информационная система для управления контентом, т.е. содержимым сайта.Нередко можно встретить упрощенное название – «движок сайта», что по сути упрощение. Появились такие системы как ответ на решение одновременно двух проблем:


  1. Снижение трудоемкости работы программистов. CMS формирует страницы «на лету» на основе шаблонов и непосредственно контента (текста, картинок, видео и других материалов, хранящихся в базах данных).
  2. Предоставление возможности пользователям заниматься наполнением сайта. При помощи CMS даже человек, далекий от программирования, может добавлять или удалять страницы, изменять их содержимое и т.д.

До появления первых CMS каждая страница сайта формировалась вручную при помощи написания HTML-кода с добавлением программных вставок для реализации интерактивности (обратная связь, комментарии) и различных динамических элементов (красивые кнопки, выпадающие меню и пр.).

В случае небольшого сайта такой подход и сейчас вполне возможен, некоторые одностраничники, например, именно так и реализуют. Но если сайт насчитывает десятки или сотни страниц, даже добавление одного пункта в меню потребует огромной работы специалиста. Просто представьте, что необходимо зайти в код каждой страницы и добавить туда несколько однотипных строк. Работа слишком простая для разработчика, но ее приходилось оплачивать по цене рабочего времени программиста, так как пользователи с ней не справляются.

Появление CMS-систем решило все эти проблемы, теперь все выглядит так:


  1. Есть шаблоны с дизайном сайта или его отдельных разделов.
  2. Есть сама система управления с удобным для пользователей разделом администратора.
  3. Есть базы данных и папки для хранения графики, документации, видео.

Веб-разработчик выполняет все необходимые настройки и доработки, после чего его участие в проекте минимально и обычно сводится к редким доработкам (нововведениям) или исправлению выявленных в процессе эксплуатации ошибок.

Владелец сайта или его сотрудники с допуском в административную панель самостоятельно работают с материалами. В результате информация актуализируется своевременно, а работа с сайтом не требует существенных затрат.


Управление данными в DRUPAL 9

Одно из важных преимуществ Drupal заключается в том, что при желании пользователь, не обладающий знаниями веб-программиста, может самостоятельно справиться со многими настройками, в том числе, создать структуру и шаблоны для разных типов материалов. В этой системе уже на уровне «коробочного решения», т.е. без доработок и надстроек, уже существует обширный функционал.

Для сравнения в популярном движке Wordpress добавление отдельных информационных полей или различных вариантов отображения информации на странице реализуется при помощи внешних плагинов. Т.е. вам необходимо понять, что именно вы хотите получить, после чего найти и установить подходящий плагин (отдельную «надстройку» к движку, которую покупают или скачивают у сторонних разработчиков). И то не факт что все заработает как надо, так как разрабатывают такие плагины не разработчики ядра, а совершенно другие люди.

В Drupal эти возможности имеются по умолчанию. Т.е. вы можете самостоятельно при желании добавить страницу или целый информационный блог с определенным вариантом отображения информации даже в том случае, если такая потребность появилась в процессе работы сайта.

Для работы с данными вам понадобятся 3 основные сущности:


  • Ноды;
  • Таксономия;
  • Представление.

О каждой из них поговорим подробнее.


Ноды (Типы материалов)

В CMS Drupal все материалы на сайте традиционно называют нодами (от англ. Node), хотя в административной панели русскоязычной версии Drupal 9 вы это название уже не встретите, здесь вместо него вы увидите более понятный пункт меню – «Типы материалов». Но традиции есть традиции, потому для простоты понимания документации и других публикаций по системе Drupal лучше запомнить это название.

В разделе Типы материалов доступны:


  1. Все уже существующие типы. При желании в них можно добавлять или убирать поля, редактировать описание или удалить. Но не забывайте, что в случае некорректной работы с полями или удалением типа вы можете потерять связанные с ним материалы. Т.е. сам контент в базе данных останется, но он либо вообще исчезнет с сайта, либо будет отображаться некорректно.


  2. Добавить новый тип. В этом случае вы придумываете ему имя, описание, настраиваете публичность информации, добавление пункта в меню или анонса на главную. Далее на следующем этапе появляется возможность создать нужное количество полей с текстовым или графическим содержимым, а также настроить их отображение.


  3. Добавляете контент на сайт.


С учетом многочисленных подсказок и русскоязычного интерфейса опытные пользователи интуитивно разберутся, как работать с настройкой нод. В случае возникновения проблем, на сайте Drupal есть подробная документация, инструкции, а также сообщество, где можно задать вопрос.

В рамках обзора у нас задача – познакомиться с возможностями системы. Потому давайте разберемся, как можно использовать типы данных на практике.

Например, у вас есть основные страницы сайта, выполненные в виде нескольких информационных блоков, состоящих из текстов, списков, инфографики, т.е. вам нужны продающие страницы определенного типа. Для них вы создаете ноды и указываете все важные настройки.

Далее, ваш проект развивается, и вы понимаете, что вам нужен блог. А это совсем другой тип подачи информации. Здесь нужна страница самого блога, содержащая анонсы статей. И отдельно – страницы текстовых материалов. Вы просто заходите в раздел «Типы материалов» и создаете еще два нода – под страницу самого блога (не забудьте добавить отображение пункта меню), и под страницы текстовых материалов.

Примеры типов материалов: статья, базовая страница, запись блога, отзыв и т.д.


Таксономия (Taxonomy)

В Drupal под термином таксономия скрывается все, что касается структуры сайта. Для пользователей, привычным к другим CMS, структура немного необычная. Дело в том, что таксономия – это может быть связано с меню сайта с любым количеством подпунктов ( для вывода категорий блогов выпадающем меню например), и привычные любителям Wordpress метки (тэги), рубрики и возможность связывать между собой материалы из разных разделов.

Основные сущности:


  • Словарь – используется для объединения терминов ( например словарь категории или тэги)
  • Термины – основные сущности (метки, разделы) для объединения материалов по какому-то признаку. При этом термины могут иметь неограниченное количество вложений.

Например, вы хотите создать магазин по продаже овощей и фруктов. Основные словари – «Овощи», «Фрукты», Ягоды». В словаре «Фрукты» могут быть «Яблоки», «Апельсины», «Бананы» и т.д. Но, если вам нужна дальнейшая детализация – без проблем. В термине «Яблоки» создаете, например, подпункты с названиями сортов. При этом вы можете одновременно использовать словарь сортировки, скажем, по цвету. И тогда ваши яблоки будут отображаться и при выборе покупателям раздела с яблоками, и при поиске по красным или зеленым фруктам.

Еще один классический пример – это категории блога. Создаем словарь "Категория услуг", в словаре создаем термины, например CRM, ERP методология и т.

На собственном сайте я использовал таксономию для создания организации блога (словарь этого раздела вы видите на скриншоте), а также для связи между обучающими материалами и статьями из блога по той же тематике.

Все статьи моего блога распределяются в соответствии с этим словарем. А когда я хочу привязать обучающий курс к материалам из блога, я просто указываю при редактировании курса нужную тему:

К слову, изменять порядок терминов в словаре или их подчиненность друг другу очень просто. Достаточно «потянуть» мышью нужный термин в нужное место, и он легко переместится в соответствии с той структурой, которую вы создаете.

Относитесь внимательно к структурированию информации, это поможет пользователям быстро ориентироваться на вашем сайте, и поможет в продвижении. Поисковые системы намного лучше индексируют проекты с хорошо структурированной информацией.


Представление (Views)

Представление – это возможность управлять внешним видом различных типов нодов, т.е. материалов. Например, вам нужна главная страница в виде перечня новостей, интересных публикаций, анонсов мероприятий и т.д.

Вы создаете представление, в котором указываете стиль – страница или блог, какие типы контента на ней будут отображаться, какие информационные поля должны быть видны, в каком формате. Т.е. по сути, создаете отдельный шаблон для этого типа страниц.

Аналогично можно создать представление, например, для страницы отзывов, именно так они реализованы на моем сайте.

Вот так выглядит представление страницы отзывов в административном разделе:

А вот результат на странице сайта – отзывы отделены друг от друга, выбран стиль отображения, все поля выглядят одинаково:

Работа с этим разделом может оказаться сложной для пользователей, но даже начинающий верстальщик быстро подберет нужный вам стиль и настроит все типы страниц сайта.

По сути модуль Views – это конструктор страницы сайта для заполнения его записями. Вы можете его темизировать как сами внутри конструктора, так и используя шаблоны темы.


Управление Пользователями

Пользователи (People) с точки зрения системы Drupal – это все посетители вашего сайта, начиная от случайных читателей и заканчивая редакторами и администраторами.

Работать с этим разделом просто:

В меню Роли (Roles) вы создаете все необходимые виды пользователей. Количество ролей может быть столько, сколько вам нужно. Обычно это:


  1. «анонимный», т.е. посетитель без регистрации,
  2. «зарегистрированный», т.е. пользователь с авторизацией, но без доступа к административному разделу;
  3. «автор» или «контент-менеджер» — человек, который может добавлять материалы в выбранные вами разделы;
  4. «администратор» — полные права доступа и т.д.
  5. В меню «Права доступа» для каждой роли вы прописываете доступ, просто выставляя флаг «галочка» в выбранном поле. При добавлении каждой ноты или таксономии они автоматически попадают в этот список. И добавить право просматривать или как-то работать с ними вы можете при помощи редактирования прав доступа.

Всех активных пользователей вы видите на основной странице (Список), здесь же можно изменить для них права доступа, удалить или добавить нового пользователя.

Работать с этим разделом просто, он понятен интуитивно и редко вызывает вопросов.


Шаблонизация в Drupal 9

В Drupal 9 заметно упростили разработку шаблонов для отображения различных типов страниц. Теперь для этого нет необходимости знать язык программирования PHP. Шаблоны можно формировать в простом HTML-коде, в том числе, при помощи конструктора. Далее они дополняются некоторыми командами специального языка Twig 2.x.

Но учтите: если вы хотите заниматься шаблонизацией самостоятельно, как минимум, html и понимание того, что такое шаблоны и зачем они нужны в принципе, понадобятся обязательно. Потому лучше оставьте эту часть работы программисту, верстальщику либо опытному контент-менеджеру.

Для примера вот код верстки на сайте из шаблона отвечающие за вывод отзывов.


Расширения

Расширения (модули) – это различные инструменты, из которых как раз таки состоит функционал CMS-системы. Часто их также называют расширениями. Такие надстройки создают сами разработчики системы, сторонние программисты, в том числе, создатели CRM, онлайн-чатов и других программных решений, для которых может быть полезна интеграция с веб-сайтом.

Система Drupal 9 поддерживает огромное количество модулей. Значительная часть из них уже установлена «в коробке». Остается только решить, что с ними сделать – включить и применять, отложить до лучших времен или удалить. Другие вы можете найти на сайтах, посвященных CMS Drupal, скачать и установить.

Важное преимущество – все модули Drupal бесплатны, при этом после установки вы будете получать в системе уведомления об обновлении, что позволит своевременно актуализировать версию любого расширения.

Из числа расширений хотелось бы выделить:


  • Набор модулей Commerce для организации интернет-магазина. Благодаря гибкой настройке и широкому перечную функций позволяют организовать практически любой тип электронной торговли.
  • Pathauto. Автоматически создает по шаблону осмысленные адреса страниц, соответствующие материалу.
  • Redirect 404. Регистрирует ошибки 404, позволяет анализировать статистику переходов на несуществующие страницы, создает редирект в случае попытки перехода на отсутствующую страницу.
  • Webform – набор модулей для создания различных типов форм, в том числе, комментарии, обратная связь, работа с тикетами и т.д.

При желании вы можете найти для CMS Drupal самые разные модули – от организации обратной связи, различных вариантов комментирования и отзывов до интернет-магазинов и других элементов электронной коммерции. И, еще раз повторюсь, все они бесплатны, а основные модули регулярно обновляются.


Локализация

CMS Drupal отлично локализована. Вы можете выбрать из широкого перечня язык раздела администратора, а также настроить все необходимые языки сайта, отображение даты и времени, указать важные региональные настройки.

Если вы по тем или иным причинам выбрали расширение на иностранном языке, его всегда можно локализовать, т.е. перевести для удобного использования. Для этого в системе существует раздел «Перевод пользовательского интерфейса», а в нем – словарь иностранных слов с переводом на ваш родной язык (в нашем случае – русский).

Значительное количество терминов вы получите прямо после установки «коробочного решения»» с выбранной заранее локализацией. Если какие-то из них покажутся вам неправильными или будут отсутствовать, всегда можно добавить или изменить перевод. Также в случае необходимости вы можете добавить словарь для второго или третьего языка. Готовые словари локализации импортируются в несколько кликов.


Интеграция

Система Drupal легко интегрируется с различными информационными системами. Мы интегрировали Drupal-сайты с Zoho CRM и другими продуктами линейки, с учетными системами, в том числе, 1С, с различными платежными системами, онлайн-чатами поддержки и т.д.

В релизе 9.0.0 организация обмена данными стала еще проще. Теперь есть инструмент, позволяющий получить из Drupal по API данные с сайта. Теперь для этого не нужно даже подключаться, например, к базам данных или писать свой модуль для обмена. Теперь по API из коробки. Теперь можно использовать Drupal в качестве headless CMS.

Программист просто подключается к сайту и получает нужные данные, даже не зная Drupal. Он будет работать, например, над мобильным приложением или какой-либо системой обработки информации. И ему для получения информации с сайта понадобятся знание JSON, методов и запросов, которые широко используются при организации API.


Поисковая оптимизация

С точки зрения SEO-продвижения, сайты Drupal можно смело называть одними из самых настраиваемых. Больше возможностей дает разве что прямая работа с php-кодом. Расширений для SEO существует огромное количество. Расскажу про некоторые из них.

О модуле Pathauto, который создает осмысленные адреса страниц, я уже рассказывал выше. В случае необходимости вы также можете вручную менять синонимы URL для любых страниц.

Вторая строка выдачи.

Существуют в Drupal также встроенные поля для различных сео-тегов, не забывайте подключать их при настройке нодов, а после – заполнять. Есть расширения для генерации карты сайта. В разделе расширений вы их найдете в разделе XML КАРТА САЙТА. А если не понравятся имеющиеся в «коробке», всегда можно найти и установить альтернативные.


Скорость работы

По времени отзыва, т.е. формирования страницы, скорость Drupal считается стандартной. На практике сайты получаются сравнительно легкими, загружаются быстро. А если у вас на страницах предполагается большой объем информации, много графики или видео файлов, всегда можно настроить кеширование. В этом случае скорость загрузки страниц заметно возрастает.
Админ-раздел сайта также работает быстро. Страницы не перегружены информацией, потому загружаются и сохраняются все изменения без задержек. Нареканий работа системы с этой точки зрения не вызывает.

Для примера прикладываю замер с сервиса PageSpeed Insights


Кеширование

Кеширование есть из коробки и к нему нареканий нет. Если к вашему сайту есть какие то особенные требования к кешированию, то вы можете всегда настроить кеш посредством кода ( такая возможноcть есть).


Работа с картинками

Также в Drupal 9 появилась возможность хранить для определенного разрешения устройства определенный размер картинки. То есть загружаете вы картинку размера 1200*1600, и можно указать что разрешения экрана в 800 пикселей максимальная ширина картинки будет 800 и CMS сама сделаем соответствующую копию картинки. За это отвечает модуль Responsive Image.


E- Commerce

Интернет-магазины на базе Drupal – решение популярное. За организацию электронной коммерции отвечает соответствующий модуль Commerce. В базовой версии он выглядит так:

Как видите, возможностей для организации торговли в «коробочном» решении вполне достаточно для реализации работы стандартного магазина. А для особых потребностей существует целый ряд расширений, которые вы можете найти и добавить сами.

Вы можете:


  • Создать каталог товаров с разделением по категориям;
  • Организовать поиск по товарам;
  • Создать карточку товара с нужными полями;
  • Добавить товар в корзину;
  • Подключить различные платежные системы;
  • Настроить обмен данными с учетными, CRM и другими программными системами и т.д.

Еще один плюс – большое число готовых шаблонов для настройки отображения товаров и других целевых страниц интернет-магазина.


Безопасность данных

Система Drupal 9, как и любая большая CMS с широким перечнем модулей, поэтому иногда в нем находят уязвимости. Важно знать что при обнаружении уязвимости разработчики в течении короткого промежутка времени выпускаю патч и владельцу сайта выводиться соответствующая надпись на сайте и приходит оповещение на почту. Впрочем, процент «взломов» Drupal-сайтов значительно ниже, чем, например, аналогичная статистика для WordPress.

При грамотных настройках вы можете быть уверены в достаточном уровне защиты своих данных. Тем более, что введение темизации, т.е. отделение шаблонов от самих данных в Drupal 9, значительно повышает степень защищенности сайта. Впрочем, забывать о правилах безопасности работы в сети Интернет нельзя ни в коем случае, независимо от выбранного движка сайта.


Почему я перешел на Drupal 9

Я много лет проработал с CMS Drupal 7, но в последние годы после внимательного изучения полностью перешел на Drupal 8, а затем как только вышла 9 версия, сразу на нее.

В чем преимущества системы:


  • Для работы с шаблонами не требуется знания PHP. Работать с ними теперь проще и быстрее, даже для опытного программиста.
  • Интеграция стала проще. О преимуществах модуля интеграции, который появился в Drupal 9, я подробно писал выше.
  • Большое количество модулей в Drupal 9 уже есть «в коробке». В прошлой версии многие расширения приходилось искать и устанавливать вручную.
  • Открытость и бесплатность

Кроме того, многие возможности Drupal 7, в том числе, написанные под эту версию «движка» расширения, уже перестали обновляться. А новые решения уже ориентированы на Drupal 9.


Как извлечь изображения из Ворда в JPG онлайн на online-convert.com

Сервис online-convert.com бесплатно выполняет перевод Ворд в JPG онлайн. Здесь можно конвертировать Word в JPEG для извлечения всех, или только отдельных страниц из исходного файла.

Пройдите следующие шаги:

  1. На сервисе online-convert.com откройте страницу «Конвертировать DOC в JPG» (несмотря на название, поддерживаются оба формата: «.doc» и «.docx»).
  2. Нажмите на кнопку «Выберите файлы» или перетащите файлы с компьютера в специальную область на странице. Можно добавить файл из интернета, введя URL адрес, или загрузить документ Word из облачных хранилищ Dropbox или Google Drive.

добавление файла

  1. Нажмите на кнопку «Начать конвертирование».
  2. После завершения обработки файла, выберите все или некоторые изображения в формате JPG.
  3. Нажмите на кнопку «Загрузить выбранные файлы в одном ZIP-архиве» или «Загрузить все файлы в виде ZIP».

загрузить файлы

  1. Распакуйте ZIP архив на компьютере для доступа к изображениям.

Операционная система Windows открывает ZIP архив без помощи сторонних программ.

Преобразование Word в JPG онлайн на сервисе Zamzar

Сейчас нам поможет перевести Word в JPEG онлайн конвертер Zamzar. На моем сайте есть обзор про сервис Zamzar.

Выполните следующие действия:

  1. Войдите на страницу «DOC в JPG» на сервисе Zamzar.
  2. Нажмите на кнопку «Добавить файлы…».
  3. Выберите конечный формат.
  4. Нажмите на кнопку «Конвертировать».

конвертировать

  1. После завершения преобразования, нажмите на кнопку «Download».

download

  1. Откроется страница, на которой можно скачать все изображения в ZIP архиве, или каждое изображение по отдельности.

Эти файлы будут доступны для загрузки на компьютер в течение 24 часов.

Конвертирование DOC (DOCX) в JPG на wordtojpeg.com

На сайте wordtojpeg.com можно преобразовать файл Word в JPG онлайн. На онлайн сервисе можно преобразовать за один раз до 20 файлов формата Word в отдельные изображения в формате JPG (JPEG).

Выполните шаги:

  1. Зайдите на страницу «Word to JPEG» сервиса wordtojpeg.com.
  2. Нажмите на кнопку «Загрузить».
  3. После завершения конвертации, нажмите на кнопку «Скачать».

word to jpg

Файлы загрузятся на ПК в ZIP архиве.

Как преобразовать документ Word в формат JPG при помощи программ

Не всегда есть возможности использовать онлайн сервис, например, если на компьютере, в данный момент времени, нет соединения с Интернетом. Поэтому пользователю необходимо воспользоваться помощью программного обеспечения, установленному на ПК.

Не существует способа для прямого конвертирования файла из текстового формата сразу в графический формат JPG. Но, из этой ситуации есть выход: нужно воспользоваться помощью нескольких программ, которые выполнят свою часть работы.

Преобразование документа Word в JPG, при помощи программ, проходит в несколько последовательных шагов:

  1. Сохранение документа Word в формате PDF.
  2. Открытие файла PDF в графическом редакторе, который поддерживает данный формат файлов.
  3. Преобразование файла PDF в формат JPG.

Первый шаг выполняется в программе MS Word:

  1. Войдите в меню «Файл» выберите «Экспорт», а затем «Создать PDF/XPS».
  2. Сохраните файл в формате PDF.

Второй и третий этапы проходят в программе для работы с графическими файлами, поддерживающей открытие файлов в формате PDF.

Вам также может быть интересно:

На этом примере, мы будем использовать Adobe Photoshop и бесплатную программу-просмотрщик IrfanView.

В Фотошопе проделайте следующие действия:

  1. В окне программы Adobe Photoshop нажмите на меню «Файл», выберите «Открыть…».
  2. Откройте файл, ранее конвертированный в формат PDF.
  3. Выберите, что вам нужно открыть: «Страницы» или «Изображения», нажмите на кнопку «ОК».

При выборе страницы, в Фотошопе будет открыта вся страница, а при выборе изображения — откроются только изображения, находящиеся в PDF файле. Если были выбраны изображения, то можно сохранить только изображения из файла PDF, а не страницы полностью.

импорт pdf

  1. Страница или изображение откроется в окне программы Adobe Photoshop.
  2. Войдите в меню «Файл», выберите «Сохранить как…».
  3. В окне «Сохранение» необходимо указать место для сохранения файла на ПК, присвоить имя файлу, а в поле «Тип файла:» выбрать формат «JPEG (*.JPG, *.JPEG, *.JPE)».

сохранение

  1. В открывшемся окне выберите параметры изображения.

параметры jpeg

После этого, изображение сохранится на вашем компьютере.

Подобную операцию можно проделать в бесплатной программе IrfanView:

  1. Откройте PDF файл в программе IrfanView.

Для поддержки открытия файлов в формате PDF в приложении, на компьютер необходимо установить AGPL Ghostscript, который можно скачать отсюда.

  1. Войдите в меню «Файл», выберите «Сохранить».
  2. В окне «Сохранить изображение как…» выберите формат: «JPG — JPG/JPEG Format».

сохранить изображение как

Простой способ сохранить изображения из Word в формате JPG

Выше мы сохраняли страницы документа Word в качестве изображений, сейчас мы сохраним отдельные изображения, находящиеся внутри документа Word.

В программе Microsoft Office, в версиях Word 2019, Word 2016, Word 2013, Word 2010, можно сохранить отдельные изображения из документа сразу на компьютер. Сделать это совсем просто:

  1. Щелкните правой кнопкой мыши по нужному изображению в документе Word.
  2. В контекстном меню выберите «Сохранить как рисунок…».

сохранить как рисунок

  1. В окне «Сохранить как рисунок» нужно выбрать тип файла: «Рисунок в формате JPEG», место сохранения, указать имя файла, нажать на кнопку «Сохранить».

сохранить в jpeg

Сохранение документа Word при помощи скриншота

Самый простой способ сохранить страницу документа Word целиком в качестве изображения: сделать снимок экрана (скриншот) с помощью системного средства, программы «Ножницы» или другого приложения для захвата экрана.

Пользователю нужно захватить нужную область открытого документа Ворд: всю страницу или часть листа, а затем сохранить снимок экрана на ПК в качестве изображения в формате JPEG.

Индексация сайта

Упомянутые выше инструменты очень важны для успешного развития вашего проекта, и это вовсе не голословное утверждение. В статье про Sitemap xml (см. ссылку выше) я приводил в пример результаты очень важного исследования по наиболее частым техническим ошибкам начинающих вебмастеров, там на втором и третьем месте (после не уникального контента) находятся как раз отсутствие этих файлов роботс и сайтмап, либо их неправильное составление и использование.

Почему так важно управлять индексацией сайта

Надо очень четко понимать, что при использовании CMS (движка) не все содержимое сайта должно быть доступно роботам поисковых систем. Почему?

  1. Ну, хотя бы потому, что, потратив время на индексацию файлов движка вашего сайта (а их может быть тысячи), робот поисковика до основного контента сможет добраться только спустя много времени. Дело в том, что он не будет сидеть на вашем ресурсе до тех пор, пока его полностью не занесет в индекс. Есть лимиты на число страниц и исчерпав их он уйдет на другой сайт. Адьес.
  2. Если не прописать определенные правила поведения в роботсе для этих ботов, то в индекс поисковиков попадет множество страниц, не имеющих отношения к значимому содержимому ресурса, а также может произойти многократное дублирование контента (по разным ссылкам будет доступен один и тот же, либо сильно пересекающийся контент), что поисковики не любят.

Хорошим решением будет запрет всего лишнего в robots.txt (все буквы в названии должны быть в нижнем регистре — без заглавных букв). С его помощью мы сможем влиять на процесс индексации сайта Яндексом и Google. Представляет он из себя обычный текстовый файл, который вы сможете создать и в дальнейшем редактировать в любом текстовом редакторе (например, Notepad++).

Поисковый бот будет искать этот файл в корневом каталоге вашего ресурса и если не найдет, то будет загонять в индекс все, до чего сможет дотянуться. Поэтому после написания требуемого роботса, его нужно сохранить в корневую папку, например, с помощью Ftp клиента Filezilla так, чтобы он был доступен к примеру по такому адресу:

https://ktonanovenkogo.ru/robots.txt

Кстати, если вы хотите узнать как выглядит этот файл у того или иного проекта в сети, то достаточно будет дописать к Урлу его главной страницы окончание вида /robots.txt. Это может быть полезно для понимания того, что в нем должно быть.

Однако, при этом надо учитывать, что для разных движков этот файл будет выглядеть по-разному (папки движка, которые нужно запрещать индексировать, будут называться по-разному в разных CMS). Поэтому, если вы хотите определиться с лучшим вариантом роботса, допустим для Вордпресса, то и изучать нужно только блоги, построенные на этом движке (и желательно имеющие приличный поисковый трафик).

Как можно запретить индексацию отдельных частей сайта и контента?

Прежде чем углубляться в детали написания правильного файла robots.txt для вашего сайта, забегу чуть вперед и скажу, что это лишь один из способов запрета индексации тех или иных страниц или разделов вебсайта. Вообще их три:

  1. Роботс.тхт — самый высокоуровневый способ, ибо позволяет задать правила индексации для всего сайта целиком (как его отдельный страниц, так и целых каталогов). Он является полностью валидным методом, поддерживаемым всеми поисковиками и другими ботами живущими в сети. Но его директивы вовсе не являются обязательными для исполнения. Например, Гугл не шибко смотрит на запреты в robots.tx — для него авторитетнее одноименный мета-тег рассмотренный ниже.
  2. Мета-тег robots — имеет влияние только на страницу, где он прописан. В нем можно запретить индексацию и переход робота по находящимся в этом документе ссылкам (подробнее смотрите ниже). Он тоже является полностью валидным и поисковики будут стараться учитывать указанные в нем значения. Для Гугла, как я уже упоминал, этот метод имеет больший вес, чем файлик роботса в корне сайта.
  3. Тег Noindex и атрибут rel="nofollow" — самый низкоуровневый способ влияния на индексацию. Они позволяют закрыть от индексации отдельные фрагменты текста (noindex) и не учитывать вес передаваемый по ссылке. Они не валидны (их нет в стандартах). Как именно их учитывают поисковики и учитывают ли вообще — большой вопрос и предмет долгих споров (кто знает наверняка — тот молчит и пользуется).

Важно понимать, что даже «стандарт» (валидные директивы robots.txt и одноименного мета-тега) являются необязательным к исполнению. Если робот «вежливый», то он будет следовать заданным вами правилам. Но вряд ли вы сможете при помощи такого метода запретить доступ к части сайта роботам, ворующим у вас контент или сканирующим сайт по другим причинам.

Вообще, роботов (ботов, пауков, краулеров) существует множество. Какие-то из них индексируют контент (как например, боты поисковых систем или воришек). Есть боты проверяющие ссылки, обновления, зеркалирование, проверяющие микроразметку и т.д.

Большинство роботов хорошо спроектированы и не создают каких-либо проблем для владельцев сайтов. Но если бот написан дилетантом или «что-то пошло не так», то он может создавать существенную нагрузку на сайт, который он обходит. Кстати, пауки вовсе на заходят на сервер подобно вирусам — они просто запрашивают нужные им страницы удаленно (по сути это аналоги браузеров, но без функции просмотра страниц).

Robots.txt — директива user-agent и боты поисковых систем

Роботс.тхт имеет совсем не сложный синтаксис, который очень подробно описан, например, в хелпе яндекса и хелпе Гугла. Обычно в нем указывается, для какого поискового бота предназначены описанные ниже директивы: имя бота ('User-agent'), разрешающие ('Allow') и запрещающие ('Disallow'), а также еще активно используется 'Sitemap' для указания поисковикам, где именно находится файл карты.

Стандарт создавался довольно давно и что-то было добавлено уже позже. Есть директивы и правила оформления, которые будут понятны только роботами определенных поисковых систем. В рунете интерес представляют в основном только Яндекс и Гугл, а значит именно с их хелпами по составлению robots.txt следует ознакомиться особо детально (ссылки я привел в предыдущем абзаце).

Например, раньше для поисковой системы Яндекс было полезным указать, какое из зеркал вашего вебпроекта является главным в специальной директиве 'Host', которую понимает только этот поисковик (ну, еще и Майл.ру, ибо у них поиск от Яндекса). Правда, в начале 2018 Яндекс все же отменил Host и теперь ее функции как и у других поисковиков выполняет 301-редирект.

Если даже у вашего ресурса нет зеркал, то полезно будет указать, какой из вариантов написания является главным - с www или без него.

Теперь поговорим немного о синтаксисе этого файла. Директивы в robots.txt имеют следующий вид:

:
:

Правильный код должен содержать хотя бы одну директиву «Disallow» после каждой записи «User-agent». Пустой файл предполагает разрешение на индексирование всего сайта.

User-agent

Директива «User-agent» должна содержать название поискового бота. При помощи нее можно настроить правила поведения для каждого конкретного поисковика (например, создать запрет индексации отдельной папки только для Яндекса). Пример написания «User-agent», адресованной всем ботам зашедшим на ваш ресурс, выглядит так:

User-agent: * 

Если вы хотите в «User-agent» задать определенные условия только для какого-то одного бота, например, Яндекса, то нужно написать так:

User-agent: Yandex

Название роботов поисковых систем и их роль в файле robots.txt

Бот каждой поисковой системы имеет своё название (например, для рамблера это StackRambler). Здесь я приведу список самых известных из них:

Google http://www.google.com Googlebot
Яндекс http://www.ya.ru 	 Yandex
Бинг http://www.bing.com/ 	 bingbot

У крупных поисковых систем иногда, кроме основных ботов, имеются также отдельные экземпляры для индексации блогов, новостей, изображений и т.д. Много информации по разновидностям ботов вы можете почерпнуть тут (для Google).

Виды поисковых роботов Гугла

Как быть в этом случае? Если нужно написать правило запрета индексации, которое должны выполнить все типы роботов Гугла, то используйте название Googlebot и все остальные пауки этого поисковика тоже послушаются. Однако, можно запрет давать только, например, на индексацию картинок, указав в качестве User-agent бота Googlebot-Image. Сейчас это не очень понятно, но на примерах, я думаю, будет проще.

Примеры использования директив Disallow и Allow в роботс.тхт

Приведу несколько простых примеров использования директив с объяснением его действий.

  1. Приведенный ниже код разрешает всем ботам (на это указывает звездочка в User-agent) проводить индексацию всего содержимого без каких-либо исключений. Это задается пустой директивой Disallow.
    User-agent: *
    Disallow:
  2. Следующий код, напротив, полностью запрещает всем поисковикам добавлять в индекс страницы этого ресурса. Устанавливает это Disallow с «/» в поле значения.
    User-agent: *
    Disallow: /
  3. В этом случае будет запрещаться всем ботам просматривать содержимое каталога /image/ (http://mysite.ru/image/ — абсолютный путь к этому каталогу)
    User-agent: *
    Disallow: /image/
  4. Чтобы заблокировать один файл, достаточно будет прописать его абсолютный путь до него (читайте про абсолютные и относительные пути по ссылке):
    User-agent: *
    Disallow: /katalog1//katalog2/private_file.html

    Забегая чуть вперед скажу, что проще использовать символ звездочки (*), чтобы не писать полный путь:

    Disallow: /*private_file.html
  5. В приведенном ниже примере будут запрещены директория «image», а также все файлы и директории, начинающиеся с символов «image», т. е. файлы: «image.htm», «images.htm», каталоги: «image», «images1», «image34» и т. д.):
    User-agent: *
    Disallow: /image
    Дело в том, что по умолчанию в конце записи подразумевается звездочка, которая заменяет любые символы, в том числе и их отсутствие. Читайте об этом ниже.
  6. С помощью директивы Allow мы разрешаем доступ. Хорошо дополняет Disallow. Например, таким вот условием поисковому роботу Яндекса мы запрещаем выкачивать (индексировать) все, кроме вебстраниц, адрес которых начинается с /cgi-bin:
    User-agent: Yandex
    Allow: /cgi-bin
    Disallow: /

    Ну, или такой вот очевидный пример использования связки Allow и Disallow:

    User-agent: *
    Disallow: /catalog
    Allow: /catalog/auto
  7. При описании путей для директив Allow-Disallow можно использовать символы '*' и '$', задавая, таким образом, определенные логические выражения.
    1. Символ '*'(звездочка) означает любую (в том числе пустую) последовательность символов. Следующий пример запрещает всем поисковикам индексацию файлов с расширение «.php»:
      User-agent: *
      Disallow: *.php$
    2. Зачем нужен на конце знак $ (доллара)? Дело в том, что по логике составления файла robots.txt, в конце каждой директивы как бы дописывается умолчательная звездочка (ее нет, но она как бы есть). Например мы пишем:
      Disallow: /images

      Подразумевая, что это то же самое, что:

      Disallow: /images*

      Т.е. это правило запрещает индексацию всех файлов (вебстраниц, картинок и других типов файлов) адрес которых начинается с /images, а дальше следует все что угодно (см. пример выше). Так вот, символ $ просто отменяет эту умолчательную (непроставляемую) звездочку на конце. Например:

      Disallow: /images$

      Запрещает только индексацию файла /images, но не /images.html или /images/primer.html. Ну, а в первом примере мы запретили индексацию только файлов оканчивающихся на .php (имеющих такое расширение), чтобы ничего лишнего не зацепить:

      Disallow: *.php$
  8. Во многих движках пользователи настраивают так называемые ЧПУ (человеко-понятные Урлы), в то время как Урлы, генерируемые системой, имеют знак вопроса '?' в адресе. Этим можно воспользоваться и написать такое правило в robots.txt:
    User-agent: *
    Disallow: /*?

    Звездочка после вопросительного знака напрашивается, но она, как мы с вами выяснили чуть выше, уже подразумевается на конце. Таким образом мы запретим индексацию страниц поиска и прочих служебных страниц создаваемых движком, до которых может дотянуться поисковый робот. Лишним не будет, ибо знак вопроса чаще всего CMS используют как идентификатор сеанса, что может приводить к попаданию в индекс дублей страниц.

Директивы Sitemap и Host (для Яндекса) в Robots.txt

Во избежании возникновения неприятных проблем с зеркалами сайта, раньше рекомендовалось добавлять в robots.txt директиву Host, которая указывал боту Yandex на главное зеркало.

Однако, в начале 2018 год это было отменено и и теперь функции Host выполняет 301-редирект.

Директива Host — указывает главное зеркало сайта для Яндекса

Например, раньше, если вы еще не перешли на защищенный протокол, указывать в Host нужно было не полный Урл, а доменное имя (без http://, т.е. ktonanovenkogo.ru, а не https://ktonanovenkogo.ru). Если же уже перешли на https, то указывать нужно будет полный Урл (типа https://myhost.ru).

Сейчас переезд сайта после отказа от директивы Host очень сильно упростился, ибо теперь не нужно ждать пока произойдет склейка зеркал по директиве Host для Яндекса, а можно сразу после настройки Https на сайте делать постраничный редирект с Http на Https.

Напомню в качестве исторического экскурса, что по стандарту написания роботс.тхт за любой директивой User-agent должна сразу следовать хотя бы одна директива Disallow (пусть даже и пустая, ничего не запрещающая). Так же, наверное, имеется смысл прописывать Host для отдельного блока «User-agent: Yandex», а не для общего «User-agent: *», чтобы не сбивать с толку роботов других поисковиков, которые эту директиву не поддерживают:

User-agent: Yandex
Disallow:
Host: www.site.ru 

либо

User-agent: Yandex
Disallow:
Host: site.ru 

либо

User-agent: Yandex
Disallow:
Host: https://site.ru 

либо

User-agent: Yandex
Disallow:
Host: https://www.site.ru 

в зависимости от того, что для вас оптимальнее (с www или без), а так же в зависимости от протокола.

Указываем или скрываем путь до карты сайта sitemap.xml в файле robots

Директива Sitemap указывает на местоположение файла карты сайта (обычно он называется Sitemap.xml, но не всегда). В качестве параметра указывается путь к этому файлу, включая http:// (т.е. его Урл).Благодаря этому поисковый робот сможете без труда его найти. Например:

Sitemap: http://site.ru/sitemap.xml

Раньше файл карты сайта хранили в корне сайта, но сейчас многие его прячут внутри других директорий, чтобы ворам контента не давать удобный инструмент в руки. В этом случае путь до карты сайта лучше в роботс.тхт не указывать. Дело в том, что это можно с тем же успехом сделать через панели поисковых систем (Я.Вебмастер, Google.Вебмастер, панель Майл.ру), тем самым «не паля» его местонахождение.

Местоположение директивы Sitemap в файле robots.txt не регламентируется, ибо она не обязана относиться к какому-то юзер-агенту. Обычно ее прописывают в самом конце, либо вообще не прописывают по приведенным выше причинам.

Проверка robots.txt в Яндекс и Гугл вебмастере

Как я уже упоминал, разные поисковые системы некоторые директивы могут интерпритировать по разному. Поэтому имеет смысл проверять написанный вами файл роботс.тхт в панелях для вебмастеров обоих систем. Как проверять?

  1. Зайти в инструменты проверки Яндекса и Гугла.
  2. Убедиться, что в панель вебмастера загружена версия файла с внесенными вами изменениями. В Яндекс вебмастере загрузить измененный файл можно с помощью показанной на скриншоте иконки:

    Проверка robots.txt в Яндексt

    В Гугл Вебмастере нужно нажать кнопку «Отправить» (справа под списком директив роботса), а затем в открывшемся окне выбрать последний вариант нажатием опять же на кнопку «Отправить»:

    Проверка роботс.тхт в Гугл
  3. Набрать список адресов страниц своего сайта (по Урлу в строке), которые должны индексироваться, и вставить их скопом (в Яндексе) или по одному (в Гугле) в расположенную снизу форму. После чего нажать на кнопку «Проверить».

    Проверяем файл роботс

    Если возникли нестыковки, то выяснить причины, внести изменения в robots.txt, загрузить обновленный файл в панель вебмастеров и повторить проверку. Все ОК?

    Проверка запретов на индексации страницы в robots.txt

    Тогда составляйте список страниц, которые не должны индексироваться, и проводите их проверку. При необходимости вносите изменения и проверку повторяйте. Естественно, что проверять следует не все страницы сайта, а ярких представителей своего класса (страницы статей, рубрики, служебные страницы, файлы картинок, файлы шаблона, файлы движка и т.д.)

Причины ошибок выявляемых при проверке файла роботс.тхт

  1. Файл должен находиться в корне сайта, а не в какой-то папке (это не .htaccess, и его действия распространяются на весь сайт, а не на каталог, в котором его поместили), ибо поисковый робот его там искать не будет.
  2. Название и расширение файла robots.txt должно быть набрано в нижнем регистре (маленькими) латинскими буквами.
  3. В названии файла должна быть буква S на конце (не robot.txt, как многие пишут)
  4. Часто в User-agent вместо звездочки (означает, что этот блок robots.txt адресован всем ботам) оставляют пустое поле. Это не правильно и * в этом случае обязательна
    User-agent: *
    Disallow: /
  5. В одной директиве Disallow или Allow можно прописывать только одно условие на запрет индексации директории или файла. Так нельзя:
    Disallow: /feed/ /tag/ /trackback/

    Для каждого условия нужно добавить свое Disallow:

    Disallow: /feed/
    Disallow: /tag/
    Disallow: /trackback/
  6. Довольно часто путают значения для директив и пишут:
    User-agent: /
    Disallow: Yandex

    вместо

    User-agent: Yandex
    Disallow: /
  7. Порядок следования Disallow (Allow) не важен — главное, чтобы была четкая логическая цепь
  8. Пустая директива Disallow означает то же, что «Allow: /»
  9. Нет смысла прописывать директиву sitemap под каждым User-agent, если будете указывать путь до карты сайта (читайте об этом ниже), то делайте это один раз, например, в самом конце.
  10. Директиву Host лучше писать под отдельным «User-agent: Yandex», чтобы не смущать ботов ее не поддерживающих

Мета-тег Robots — помогает закрыть дубли контента при индексации сайта

Существует еще один способ настроить (разрешить или запретить) индексацию отдельных страниц вебсайта, как для Яндекса, так и для Гугл. Причем для Google этот метод гораздо приоритетнее описанного выше. Поэтому, если нужно наверняка закрыть страницу от индексации этой поисковой системой, то данный мета-тег нужно будет прописывать в обязательном порядке.

Для этого внутри тега «HEAD» нужной вебстраницы дописывается МЕТА-тег Robots с нужными параметрами, и так повторяется для всех документов, к которым нужно применить то или иное правило (запрет или разрешение). Выглядеть это может, например, так:

...
...

В этом случае, боты всех поисковых систем должны будут забыть об индексации этой вебстраницы (об этом говорит присутствие noindex в данном мета-теге) и анализе размещенных на ней ссылок (об этом говорит присутствие nofollow — боту запрещается переходить по ссылкам, которые он найдет в этом документе).

Существуют только две пары параметров у метатега robots: [no]index и [no]follow:

  1. Index — указывают, может ли робот проводить индексацию данного документа
  2. Follow — может ли он следовать по ссылкам, найденным в этом документе

Значения по умолчанию (когда этот мета-тег для страницы вообще не прописан) – «index» и «follow». Есть также укороченный вариант написания с использованием «all» и «none», которые обозначают активность обоих параметров или, соответственно, наоборот: all=index,follow и none=noindex,nofollow.

Более подробные объяснения можно найти, например, в хелпе Яндекса:

Страница помощи Яндекса

Для блога на WordPress вы сможете настроить мета-тег Robots, например, с помощью плагина All in One SEO Pack. Если используете другие плагины или другие движки сайта, то гуглите на тему прописывания для нужных страниц meta name="robots".

WordPress

WordPress — бесплатная и наиболее распространенная система управления контентом. На этом движке работают более 35% веб-сайтов во всем мире и почти 45% в Рунете.

Для каких сайтов подходит?

WordPress подходит для любого типа сайтов: от блогов и одностраничников до новостных страниц и интернет-магазинов. Для этого на движке есть множество встроенных функций. Также у пользователей есть возможность установить дополнительные плагины, к примеру, такие как WooCommerce для электронной коммерции.

Системные требования

Основные технические характеристики WordPress:

  • язык программирования – PHP (версия 7.4 и выше);
  • базы данных – MySQL (версия 5.6 и выше), MariaDB (версия 10.1 и выше);
  • операционные системы – Windows, UNIX;
  • веб-сервер – Apache, Nginx.

Стоит учитывать, что сайт на WordPress не будет работать на uCoz и прочих хостингах, которые не поддерживают PHP, что несколько уменьшает возможности применения движка.

Безопасность и производительность

На WordPress есть несколько важных функций с точки зрения безопасности и производительности:

  • модерация публикуемых материалов;
  • разграничение доступа;
  • кэширование страниц;
  • поддержка SSL.

Вместе с тем, пользователи ВордПресс часто сталкиваются со взломами страниц. Причина скорее заключается не в самом движке, а в его распространенности. Из-за использования большого количества модулей может падать производительность. Вопрос помогут решить изменения в исходном коде, который находится в открытом доступе, и последующий отказ от ряда плагинов.

Возможности самостоятельного конфигурирования

Сайты на WordPress легко масштабировать, добавляя дополнительные плагины. Из небольшого корпоративного сайта на ВордПресс можно сделать полноценный портал, добавив онлайн-магазин, форум и прочие страницы.

Удобство использования

Преимущество CMS – простота установки и настройки. ВордПресс легко развернуть практически на любом хостинге. Для самостоятельной установки пользователю доступны многочисленные инструкции, руководства и прочие учебные материалы. Работать с движком смогут начинающие разработчики – благодаря удобной административной панели и WYSIWYG-редактору не обязательно вносить изменения на уровне исходного кода.

Встроенные модули

На ВордПресс доступны базовые встроенные модули: поддержка RSS, настройка форм обратной связи, фотогалерея, поиск по сайту и прочие. Есть возможность устанавливать дополнительные плагины, чтобы улучшить функционал. Большая часть из них находится в свободном доступе. Также есть платные модули, а некоторые бесплатные плагины имеют расширенную pro-версию с дополнительным набором функций.

WordPress — одна из наиболее «дружелюбных» платформ для SEO-оптимизации. На движке в базовой версии есть немного встроенных функций. Однако пользователи имеют возможность установить темы, которые помогут вывести сайт на первые строчки в поисковых системах.

1С-Битрикс


1C-Битрикс – коммерческая система управления контентом. Среди платных CMS в русскоязычной онлайн-среде продукт занимает лидирующую позицию. В общем рейтинге система удерживает второе место после ВордПресс – его используют более 13% сайтов.

Для каких сайтов подходит?

CMS 1C-Битрикс – решение преимущественно для крупных сайтов. Движок используют для площадок, где требуется широкий набор функций: интернет-магазинов, корпоративных порталов. Для небольших сайтов, например, лендингов или визиток 1С-Битрикс использовать невыгодно из-за высокой стоимости продукта.

Но это не значит, что движок подходит только для больших площадок. Продукт представлен в нескольких редакциях, которые продают по отдельным лицензиям. Например, тариф «Старт» позволяет создать небольшой корпоративный сайт. Редакция для бизнеса подходит для интернет-магазинов. Цена лицензии станет непосильно высокой для начинающих компаний, поэтому на первых этапах развития стоит отдавать предпочтение бесплатным CMS. Пользоваться 1С-Битрикс в подобных случаях целесообразно, когда планируется расширение проекта.
Кстати, наш хостинг прекрасно справится с размещением любого проекта на 1С-Битрикс!

Системные требования

Среди минимальных требований для системы управления контентом:

  • языки программирования – PHP (версия 7.1 и выше);
  • базы данных – MySQL (версия 5.6 и выше);
  • операционные системы – Windows, UNIX;
  • веб-серверы – Apache.

Даже минимальные рекомендованные технические характеристики дают широкие возможности для использования движка на разных хостингах.

Безопасность и производительность

1C-Битрикс – продукт с высокой степенью защиты. Безопасность обеспечивают встроенные инструменты, также можно купить дополнительные расширения. Система предназначена, в первую очередь, для крупных проектов, поэтому отличается высокой производительностью.

Возможности самостоятельного конфигурирования

1С-Битрикс – это система управления контентом с большими возможностями масштабирования. Чтобы расширить проект, достаточно приобрести редакцию с более широким функционалом. Разработчик может устанавливать не только готовые решения, но и собственноручно созданные модули и шаблоны. Это открывает широкие возможности для создания индивидуальных крупных проектов.

Удобство использования

CMS недостаточно удобна для начинающих разработчиков и пользователей. В бесплатном доступе нет полноценных руководств – обучающая информация в полном объеме представлена в платных курсах.

Встроенные модули

Платформа поддерживает другие решения компании 1С и сторонние продукты. Количество встроенных плагинов и возможности их установки зависят от редакции системы. Младшие версии CMS по функциональности сопоставимы с бесплатными системами. Чтобы получить более широкие возможности, нужно заплатить за расширенную редакцию.

Joomla!

Бесплатный движок Joomla! используют порядка 11% сайтов в Рунете. Система популярна не только в странах СНГ, но и во всем мире и входит в ТОП-5 лидирующих CMS.

Для каких сайтов подходит?

Как и WordPress, Joomla! подходит для всех типов сайтов. При этом не имеет значение масштаб: система одинаково оптимальна для небольших страниц и крупных площадок.

Системные требования

Минимальные технические параметры для Joomla! 3.x:

  • языки программирования – PHP (версия 5.3.10 и выше);
  • базы данных – MySQL (версия 5.5.3 и выше), MS SQL (версия 10.50.1600.1 и выше), Postgres SQL (версия 9.1 и выше);
  • операционные системы – Windows, UNIX
  • веб-серверы – Apache, IIS, nginx.

На большинстве хостингов сайты на Joomla! разворачиваются в один клик.

Безопасность и производительность

На базовом уровне движок в достаточной мере защищен от несанкционированного доступа. Новые инструменты, которые повышают безопасность, появляются с каждым обновлением. Однако, как и в случае с другими бесплатными CMS, установка сторонних расширений снижает уровень защищенности, поэтому статистика взломов неутешительна. Также бывают проблемы с производительностью, когда Джумла! используют для крупных проектов.

Возможности самостоятельного конфигурирования

Движок предоставляет возможность создавать неограниченное количество страниц, что удобно для масштабирования проекта. Также можно устанавливать самостоятельно разработанные плагины и создавать индивидуальные макеты.

Удобство использования

Чтобы разобраться, как работает CMS, не нужно долгое время прокачивать скиллы и получать специальные навыки. Установка и настройка системы не вызывают проблем даже у новичков, поэтому движок считается достойной альтернативой ВордПресс.

Встроенные модули

Базовый функционал Joomla! довольно широкий. На движке есть встроенные модули для форумов, RSS, FAQ, интернет-магазина. Расширить возможности помогают разнообразные плагины. Устанавливать их можно из официальных или посторонних источников.
Также необходимо учитывать, что при апдейте Joomla! расширения в старых версиях будут работать некорректно. Это распространенная проблема, которая главным образом касается бесплатных плагинов, — разработчики не всегда вовремя выпускают обновления.

OpenCart

OpenCart — бесплатная CMS, предназначенная для онлайн-магазинов. В русскоязычном интернет-пространстве систему используют около 3% площадок.

Для каких сайтов подходит?

Система изначально разработана для создания интернет-магазинов. Для сайтов другого направления функционала недостаточно. Для проектов в сфере e-commerce это одно из лучших бесплатных решений.

Системные требования

Технические требования системы:

  • языки программирования – PHP (версия 5.4 и выше);
  • базы данных – MySQLi;
  • операционные системы – Windows, UNIX;
  • веб-серверы – Apache (рекомендовано), IIS, nginx.

OpenCart подходит для большинства платных хостингов — бесплатные чаще всего не соответствуют системным требованиям CMS.

Безопасность и производительность

Достоинство CMS — хорошая базовая защищенность, которая включает:

  • фиксацию действий пользователей;
  • защиту от автоматического заполнения капчи;
  • модерацию публикаций;
  • распределение прав доступа;
  • поддержку безопасного SSL-протокола.

Производительность может снижаться по мере заполнения магазина товарами. Проблему решают правильный выбор хостинг-провайдера и работа с необходимыми инструментами, такими как кэширование страниц.

Возможности самостоятельного конфигурирования

OpenCart имеет открытый исходный код, что дает возможность разработчику внедрять собственные решения. Немного сложнее править дизайн. На платформе не предусмотрен визуальный редактор поэтому установив шаблонную или скачанную на постороннем ресурсе тему, нужно работать с отдельными файлами.

Система открывает большие возможности для онлайн-продаж на территории СНГ. CMS интегрирована со многими сервисами доставки и оплаты товаров, в том числе и продуктами Яндекса. Если бизнес выходит на международный уровень, сайт легко сделать мультиязычным. Также есть возможность подключить европейские и американские сервисы для доставки и оплаты.

Удобство использования

OpenCart подходит для новичков в разработке. Для управления предусмотрена удобная панель администратора. Интерфейс удобный и полностью русифицированный.

Встроенные модули

Функций OpenCart даже в базовом исполнении достаточно для развития интернет-магазина. Если функционала мало, доступно множество расширений, разработанных для сферы электронной коммерции.

Многие разработчики сталкиваются с тем, что скорость загрузки страниц замедляется и при установке конфликтных плагинов. Однако проблема решается выбором подходящих расширений из официальных источников.

Drupal

Drupal — бесплатная система управления контентом с открытым исходным кодом. В рейтинге популярности в Рунете движок занимает пятое место. Его используют для более чем 3% сайтов.

Для каких сайтов подходит?

Drupal можно использовать для сайтов любого направления. Преимущественно движок применяют для крупных проектов, которые требуют высокой производительности. Для небольших блогов оптимальнее будут альтернативные бесплатные системы.

Системные требования

Основные требования Drupal:

  • языки программирования – PHP (версия 7.2 или выше);
  • базы данных – MySQL (версия 5.5.3 и выше), Postgres SQL (9.1.2 или выше), SQLite (версия 3.4.2 или выше);
  • операционные системы – Windows, UNIX;
  • веб-серверы – Apache, nginx, IIS.

Стоит упомянуть, что CMS корректно работает только на высокопроизводительных хостингах. При недостаточной мощности контент будет прогружаться медленно, несмотря на отличные базовые функции.

Безопасность и производительность

Drupal отличается высокой защищенностью и производительностью на базовом уровне. Так, встроенные возможности кэширования обеспечивают быструю загрузку страниц.

Возможности самостоятельного конфигурирования

Drupal можно адаптировать и кастомизировать для простых сайтов или сложных веб-приложений. Система гибкая за счет открытого исходного кода и возможности внедрить собственные настройки.

Удобство использования

Drupal имеет не очень «дружелюбный» интерфейс. Мастеру, который еще не работал с этой CMS, он покажется сложным за счет большого количества настроек. Drupal – система для более опытных разработчиков. Упростить задачи по обучению помогут руководства от сообщества пользователей. Установить же систему можно из личного кабинета на хостинге в считанные минуты.

Встроенные модули

В Drupal предусмотрен базовый набор модулей (для отображения контента, обработки изображений, добавления публикаций и другие). Все они работают в связке друг с другом. С помощью встроенных модулей не получится создать крупный проект, например, онлайн-магазин. Для этого можно скачать официальные версии дополнительных расширений. Но при установке нужно понимать, что все модули дополняют друг друга. Новые расширения необходимо проверять на совместимость с базовыми.

Стратегия бесплатной раскрутки сайта в 2021 году

ЧТО мы делаем

Наша цель – сделать так, чтобы наш сайт по нужным запросам оказался в ТОПе поисковых систем. Например, у нас есть сайт спортивной тематики. Человек вводит в Яндекс «как выбрать гантели», и видит наш сайт на одном из первых мест в поисковой выдаче.

Это называется SEO-продвижение (Оптимизация сайта под поисковое продвижение).

ЗАЧЕМ мы это делаем

Мы это делаем для того, чтобы получать бесплатных посетителей из Яндекса. А эти посетители нам нужны, будем говорить откровенно, для заработка. Зарабатывать на трафике из поисковых систем можно тремя способами:

  1. Продажа своих товаров и услуг
  2. Продажа партнерских товаров и услуг
  3. Реклама

КАК мы это делаем

Поскольку продвижение у нас бесплатное, то раскручивать сайт мы будем с помощью статей. Мы выбираем какой-нибудь подходящий запрос и пишем под него качественную (!) полезную статью. Яндексу наша статья нравится, и он ставит её в ТОП. В результате все довольны –

  • Посетитель находит ту информацию, которую искал
  • Яндекс удовлетворяет запрос пользователя и становится его приоритетной поисковой машиной
  • Мы получаем бесплатный трафик

Что нам НЕ нужно делать

Нам не нужно покупать ссылки, делать «прогоны» по каталогам, добавлять наш сайт в тысячи закладок. Другими словами, не надо использовать никаких черных и серых методов продвижения. В итоге это только приведет к тому, что ваш сайт забанят и все усилия пропадут зря.

Нам не нужно нанимать вебмастеров и SEO-специалистов для раскрутки сайтов. Все, что они смогут вам дать хорошего – это качественно настроить сайт перед продвижением. Но вы с этим справитесь и самостоятельно (инструкцию я дам ниже). А если не справитесь, то заплатите один раз фрилансеру пару тысяч рублей, чтобы он настроил сайт.

Давайте теперь разберем процесс раскрутки сайта по шагам с самого нуля.

Шаг #1 – Техническая настройка (создание) сайта

Вот чек-лист, по которому вам надо пройти, чтобы получить полностью настроенный и готовый к продвижению сайт.

Доменное имя

Переходите на сайт регистратора имен Reg.ru и выбирайте имя для вашего будущего сайта (если домен у вас уже есть, то этот шаг пропускаем).

Регистратор доменных имен РегРу

Выбирайте себе доменное имя, ориентируясь на следующие рекомендации:

  • Доменная зона .RU. В России люди привыкли, что большинство сайтов оканчиваются на .RU. И ваш сайт будут запоминать и искать в первую очередь именно так.
  • У домена понятное простое имя. Не используйте сложные иностранные слова (например «beauty-house»). Лучше используйте простые короткие слова (например «super-dom»).
  • Ваш домен отличается от доменов конкурентов. Если вы создаете сайт про иностранные языки, то не надо в очередной раз использовать вариацию на тему «lingua». А то наверняка затеряетесь среди сотен конкурентов с сайтами «лингва-плюс», «лингва-минус» и прочими.
  • Вы покупаете домен быстро. Все рекомендации, которые я дал выше – это только рекомендации, но они совсем необязательны. Самая большая ошибка – это надолго погрязнуть в выборе домена. Может быть, идеального имени вы никогда и не найдете. Но чем раньше вы приобретете домен, тем быстрее перейдете непосредственно к продвижению сайта.

Я видел много сайтов со странными и непонятными доменами, которые стояли в ТОПе. И наоборот, видел сайты с крутыми премиум-доменами, на которых было 0 посетителей в сутки. Отсюда вывод – домен почти никак не влияет на продвижение. Поэтому не надо терять много времени на этом шаге.

Качественный хостинг

Вот это действительно важно. Ваш хостинг должен быть:

  • Быстрым
  • Безопасным
  • VPS/VDS

По первым двум пунктам, думаю, понятно. А вот на третьем давайте остановимся чуть подробнее.

Сейчас есть два основных вида хостинга. Первый – это обычные виртуальные хостинги. Второй – это VPS (по-другому их еще называют VDS, но в принципе это одно и то же).

На обычном виртуальном хостинге множество сайтов делят один IP-адрес. Поэтому такие хостинги еще называют «шаровыми» (от англ. «share» – делить). В результате все мощности хостинга делятся на все сайты, которые расположены на одном IP-адресе. Это все равно, как если бы за вашим компьютером одновременно работало 10 или 20 человек. Даже если у вашего компьютера много оперативной памяти и быстрый процессор, он неизбежно начнет тормозить, если столько людей одновременно загрузят его задачами.

А на виртуальном хостинге на одном IP может располагаться и 1000 и 10.000 сайтов. Такой хостинг нам не нужен.

Мы выбираем VPS/VDS хостинг, где вы получаете свой выделенный IP-адрес. По стоимости такие хостинги сегодня ничуть не дороже обычных виртуальных хостингов. По управлению – тоже никаких проблем. После покупки хостинга вы получаете личный кабинет, который сразу готов к работе.

Я пользуюсь хостингом FastVPS (обратите внимание – ссылка стоит НЕ партнерская. Я рекомендую этих ребят от чистого сердца). Там большой выбор тарифов с выделенным IP. Для начала можно взять EVO1.1 SSD. Он стоит всего 162 рубля в месяц (ну, или цена немного отличается, в зависимости от курса евро).

Быстрый VPS хостинг FastVPS

Если у вас уже есть хостинг, то убедитесь, что у вас выделенный IP адрес. Если нет, то обычно сейчас можно отдельно докупить выделенный IP у любого хостинг-провайдера.

Бесплатный движок для сайта WordPress

Мы с вами будем делать сайт на бесплатном движке WordPress. Мало того, что он бесплатный, так еще и лучше всех «заточен» под поисковое продвижение статьями.

Существует множество других движков для сайтов. Но они либо очень дорогие и сложные (Битрикс), либо плохо адаптированы под поисковое продвижение (Joomla, Drupal).

Также не надо делать сайт на каком-нибудь конструкторе сайтов. Конструкторы хорошо подходят для создания одностраничных лендингов. Но статьями такие сайты продвинуть очень сложно. К тому же, конструкторы ВСЕГДА дадут вам меньше функций, а стоить будут гораздо больше, чем тот же самый WordPress на своем хостинге.

Установка WordPress

Когда вы приобретете хостинг, то в панели управления наверняка увидите кнопочку «Установить WordPress». Вам будет достаточно нажать на эту кнопочку и движок сразу автоматически установится на сайт.

Вот так делать НЕ надо. Автоматическая установка движка – это небезопасно. 90% сайтов на wordpress уже взломали или взломают в ближайшем будущем. Как раз из-за таких вот автоматических установок.

Лучше потратьте немного времени на то, чтобы изучить мою статью – «Установка сайта на WordPress с нуля за 15 минут». Так вы сможете установить сайт максимально безопасно.

После установки вам еще надо будет настроить сайт. Для этого изучите другую мою статью – «Настройка сайта для поисковых систем – подробно».

Технические настройки могут занять у вас от 1 до 7 вечеров (в зависимости от вашего предыдущего опыта работы с сайтами). После этого переходим к шагу 2.

Шаг #2 – Подбор ключевых запросов

«Ключевой запрос» – это то, какие слова вводит пользователь в поисковую строку, чтобы найти нужную информацию.

Допустим, мы продолжаем раскручивать сайт на спортивную тематику. Мы хотим написать статьи про выбор гантелей. И сначала нам надо подобрать правильный ключевой запрос, под который мы будем писать статью.

Вот, какие варианты приходят в голову, если не пользоваться никакими сервисами подбора ключевых запросов:

  • Как выбрать гантели
  • Как выбрать гантели девушке
  • С какими гантелями лучше заниматься дома

На первый взгляд, отличные запросы. Наверняка эта информация интересна многим пользователям. Но это только на первый взгляд. Прежде, чем писать статьи, нам надо эти запросы проверить и обработать.

Проверка запросов в Yandex.Wordstat

Первым делом – проверяем, действительно ли есть люди, которых интересуют эти запросы. Запросто может оказаться, что люди эту информацию ищут, но какими-то другими словами. А если мы используем неправильные слова, то наша даже самая замечательная статья не попадет в ТОП.

Открываем специальный сервис WordStat, который нам подарил Яндекс. Открывается окно для проверки частотности ключевых запросов.

Вводим наши запросы, ставим их в кавычки, и нажимаем «Подобрать». Кавычки – это специальный оператор Яндекса. Если проверять частотность запросе без кавычек, то результат будет неправильным. Яндекс нам покажет суммарную частотность всех запросов, в которых встречаются слова из нашего ключевого запроса.

Например, мы проверяем запрос «гантели для девушки», а он нам показывает еще и «девушка с гантелями фото». Это совсем не то, что нам надо. Поэтому берем наш целевой запрос – “с какими гантелями лучше заниматься дома” – и ставим его в кавычки. Получаем:

Проверка запроса в Вордстат в кавычках

Оказывается, что у этого запроса нет никакой частотности. То есть никто эту информацию в поиске не ищет. А если и ищет, то формулирует запрос другими словами. Значит, нам бесполезно писать статью с таким заголовком. Надо сначала подобрать правильные слова.

Немного переформулируем это запрос, и получим, например «какие гантели лучше купить для дома мужчине».

Изменяем запрос и проведем в WordStat

У этого запроса аж 727 чистых показов в месяц. Такой ключ нам подходит. Оставляем его для следующей проверки.

Поверка запросов в Мутаген

Нам недостаточно только узнать, какая у запроса частотность. Может так оказаться, что запрос, который вы нашли, очень конкурентный. То есть в ТОПе по этому запросу стоят очень сильные сайты, которые вы не сможете выбить.

Чтобы узнать уровень конкурентности запроса – используем сервис Мутаген. Он показывает уровень конкурентности запроса от 1 до 25.

«1» – это самая слабая конкуренция.

«25 и более» – максимальная конкуренция.

Нам надо, конечно, найти запросы, у которых уровень конкуренции пониже. Поэтому, например, запрос «как выбрать гантели» придется отложить.

Проверка конкурентного запроса в Мутаген

А вот запрос «какие гантели лучше купить для дома мужчине» отлично подойдет.

Проверка низкоконкурентного запроса в Мутаген

Если у вас молодой сайт и вы только начинаете раскрутку, то лучше не брать запросы с высокой конкурентностью. Ищите ключи, у которых уровень конкурентности 5-10. Более «тяжелые» запросы оставьте на потом.

Мутаген – это платный сервис. За каждую проверку ключевого запроса он берет 30 копеек. Но оно того стОит. Лучше потратить пару вечеров и пару сотен рублей, чтобы подобрать классные запросы, чем впустую писать статьи под запросы, где невозможно продвинуться.

Подбор ключевых запросов по-другому называется «сбором семантического ядра». Подробнее об этом вы можете прочитать в моей статье «Семантическое ядро – как правильно составить» (откроется в новой вкладке).

А нам пора переходить к заключительному шагу.

Шаг #3 – Написание статей

Допустим, мы подобрали запросы:

  • как выбрать гантели
  • какие гантели лучше купить для дома мужчине
  • Как выбрать гантели девушке
  • Упражнения с гантелями дома

Чтобы поисковые системы показали наш сайт в ТОП по этим запросам, статьи должны быть оптимизированы под эти поисковые запросы. То есть ответ должен даваться теми же самыми словами, какими пользователь задает свой вопрос:

  • «Как выбрать гантели – 5 советов тренера»
  • «Какие гантели купить мужчине для дома? 10 фактов»
  • «Как выбрать гантели девушке – 5 советов тренера»
  • «10 лучших упражнений с гантелями дома»

Это называется «оптимизация текста под поисковый запрос». Нам нужно использовать найденный ключевой запрос в следующих местах текста:

  • В заголовке
  • В первом абзаце
  • В подзаголовке
  • В описании главного изображения (картинки к статье)
  • В описании самой статьи (Мета-тэг «Description»)
  • В последнем абзаце статьи

Также надо использовать как можно больше синонимов к вашему ключевому запросу на протяжении всего текста.

  • «Гантели» – гири, снаряды, утяжелители…
  • «Дома» – в домашних условиях, самостоятельно…
  • «Купить» – приобрести, выбрать, подобрать…

Подробнее на эту тему вы можете прочитать в моей статье «Оптимизация текста под поисковый запрос на 100%» (откроется в новой вкладке).

Когда вы напишете первую статью – начнется самое тяжелое. Вам надо будет написать вторую статью, а потом третью, и так далее. В этой гонке под называнием «самостоятельная и бесплатная раскрутка сайта» побеждает не самый умный и не самый талантливый. Побеждает всегда самый усидчивый.

Чем больше статей вы напишете – тем по бОльшему количеству ключевых запросов сайт выйдет в ТОП. Тем больше вы получите трафика, и тем больше денег сможете заработать. Логика простая, но тяжелая.