Поисковый беспредел
Поисковый беспредел
Рядовые пользователи наблюдают за происходящим в сети, вглядываясь в бесконечное пространство через монитор. Крупные поисковые корпорации, производители программного обеспечения и компьютерной техники окружают людей информацией, в которой необходимо ориентироваться и разбираться, а также диктуют правила поведения в интернете.
Наличие конфиденциальной информации в открытом доступе
Все чаще поднимается шумиха по поводу того, что в сети появляются персональные данные людей и информация, находящаяся в закрытых базах. Поисковые гиганты решили принять незамедлительные меры и стали всех и каждого учить делать правильные сайты, дабы чего лишнего случайно не попало в поисковую выдачу. Однако никто не предложил способа по защите интересов обычного человека, которые не имеют ничего общего с выгодой нескольких корпораций.
Всеобщее заблуждение
Создателей сайтов и владельцев иных информационных источников пытались убедить в том, что они самостоятельно должны заботиться о сокрытии данных, не предназначенных для всеобщего пользования, а если что-то не удалось спрятать под сотней виртуальных «замков», то и виноватых искать бессмысленно. В итоге люди привыкли обманываться и заблуждаться и даже не представляют своей жизни по иным законом и правилам. Подобное положение вещей очень выгодно поисковым компаниям, привыкшим к вседозволенности и безнаказанности.
Никого уже не удивляет бесконтрольный сбор данных с закрытых ресурсов, обычных компьютеров и мобильных телефонов. Среднестатистическому пользователю и в голову не может прийти, что он периодически является жертвой афер с одной единственной целью – получение доступа к личным данным, имеющим значительную ценность. Многомилионная армия людей при этом не стремится отстоять свои права и спокойно смотрит на творящийся беспредел.
Выход из положения
Поисковые системы должны собирать информацию в интернете только по разрешенным адресам, а соответствующие ссылки должны предоставляться владельцами сайтов и создателями конкретного материала. Информация, запрещенная для копирования, может быть доступна только в ознакомительном режиме. Любой другой подход к получению данных необходимо признать незаконным.
Если перефразировать, то индексироваться только то, что указано в sitemap и иных аналогичных источниках. Исключительно разрешенные адреса следует указывать и в файлах robots.txt. Поисковые системы обязаны ориентировать сканирование в соответствии требованиями и желаниями владельцев виртуальных ресурсов. Реализация подобных технологий возможна с технической точки зрения, основная проблема состоит в изменении существующей идеологии и мировоззрения.
Пересмотрев параметры индексации в сторону их ужесточения, можно значительно очистить поисковую выдачу, сделать ее более качественной. Пользователи получат реальную возможность повысить комфорт своего пребывания в сети и будут испытывать положительные эмоции от пребывания в интернете.
Перспективность предлагаемого подхода становится более очевидно после рассмотрения актуального примера. На большинстве существующих сайтов находится от нескольких десятков до нескольких сотен полезных страниц, но индексация без разбора засоряет выдачу календарями событий на несколько лет и практически пустыми страницами, о существовании которых сложно и догадаться. Наличие возможности определения контента, подлежащего индексации принесет огромную пользу обычным пользователям, ведь им не придется фильтровать информативный мусор.