Благодарю за отклик!
В случае использования сторонних скриптов индексация не гарантируется в принципе. Если применять loading=lazy индексация должна происходить в первой волне.
Спасибо за отклик!
В сервисе PageSpeed Insights данные атрибут сейчас не обрабатывается.
Данная информация есть в статье.
Директива noindex не поддерживается в случае, если используется в robots.txt
301 редриект следует размещать с 1 страницы на 1 страницу. Практика с применением 301-редиректов на множестве страниц с редиректом на одну считается поисковым алгоритмом подозрительной.
Сейчас noindex поддерживается, если директива используется в метатеге или HTTP-заголовке X-Robots-Tag.
Есть ряд способов. Детальнее в материале - Как удалить страницы конкурентов из поисковой выдачи, если на них размещен скопированный контент? Что такое DMCA? (https://ru.megaindex.com/blog/dmca)
Еще в тему - Как извлечь пользу, если контент скопировали? Как защитить контент от копирования на уровне сервера? (https://ru.megaindex.com/blog/content-protect)
Спасибо за отклик!
Формулировку отредактировал, благодарю за замечание.
Такие страницы не необходимости удалять.
Ничего не делать тоже было бы не правильным шагом.
На такие страницы следует добавить ключевые фразы.
Даже если фразы с низкой частотностью.