Мы изначально взялись за непростой путь, в отличии от большинства оптимизаторов:
1. Мы не считаем определенный донор на 100% плохим или хорошим. На любом сайте могут быть естественные и SEO-ссылки
2. Мы не загружали всем известные базы доноров из бирж, чтобы алгоритм одинаково работал для всех известных и закрытых сервисов получения SEO-ссылок
По сути, выбранный нами подход подразумевает единственное решение — обучение алгоритма на базе множества факторов (аналогично работе MatrixNet в Яндекс)
На входе мы имеем два заданных множества, которые используем для обучения алгоритма:
— SEO-ссылки
— естественные ссылки
Также имеем уже размеченную выборку для контроля полученных результатов, где заранее известно, какие ссылки SEO, а какие нет.
По результатам оценки контрольной выборки мы имеет два типа ошибок:
1. Оценка естественной ссылки, как SEO
2. Оценка SEO-ссылки, как естественной
Наша аналитическая команда поработала над выработкой различных критериев определения SEO-ссылок, которые будут использоваться для обучения алгоритма. Всего мы выявили их около 100, хотя реально полезных не более 30.
В настоящий момент мы сделали первый опытный образец, который использует всего два критерия для разметки ссылок и уже получили алгоритм, которые дает разметку с точностью более 70% по контрольной выборке. Уверены, что после ввода нескольких десятков критериев, точность будет более 95%.
В настоящий момент мы показываем флаг SEO только в исходящих ссылках. После доведения алгоритма до точности в 95% мы добавим флаг SEO и в отчет по внешним ссылкам.
Отчет доступен в приложении исходящих ссылок: https://ru.megaindex.com/outlinks
Обсуждение
Не потерял ли инструмент актуальность? Продолжает ли обучаться модель, или используются данные со времени создания инструмента?
Насколько сейчас можно доверять данным, полученным с помощью инструмента?