В случае использования сторонних скриптов индексация не гарантируется в принципе. Если применять loading=lazy индексация должна происходить в первой волне.
Спасибо за отклик!
В сервисе PageSpeed Insights данные атрибут сейчас не обрабатывается.
Данная информация есть в статье.
Директива noindex не поддерживается в случае, если используется в robots.txt
301 редриект следует размещать с 1 страницы на 1 страницу. Практика с применением 301-редиректов на множестве страниц с редиректом на одну считается поисковым алгоритмом подозрительной.
Сейчас noindex поддерживается, если директива используется в метатеге или HTTP-заголовке X-Robots-Tag.
Есть ряд способов. Детальнее в материале - Как удалить страницы конкурентов из поисковой выдачи, если на них размещен скопированный контент? Что такое DMCA? (https://ru.megaindex.com/blog/dmca)
Формулировку отредактировал, благодарю за замечание.
Такие страницы не необходимости удалять.
Ничего не делать тоже было бы не правильным шагом.
На такие страницы следует добавить ключевые фразы.
Даже если фразы с низкой частотностью.