Директива noindex не поддерживается в случае, если используется в robots.txt
301 редриект следует размещать с 1 страницы на 1 страницу. Практика с применением 301-редиректов на множестве страниц с редиректом на одну считается поисковым алгоритмом подозрительной.
Сейчас noindex поддерживается, если директива используется в метатеге или HTTP-заголовке X-Robots-Tag.
Спасибо за отклик!
На счет темы масок, речь про регулярные выражения. В файле допускаются спецсимволы * и $. Таким образом задаются определенные регулярные выражения.
Да. Ранее не сайта можно было использовать директиву для запрета индексации noindex.
Пример - https://www.imd.org/robots.txt
Ранее в robots.txt была директива noindex. Теперь не поддерживается.
Disallow поддерживается.
Да, директива noindex выполняется, если использовать на использовать метатег.
Если исключить страницу из индекса требуется с гарантией, то следует использовать код ответа сервера 404, 410.
Да. Например, на странице продвигаемого сайта может быть множество тегов, при этом основной контент ряда страниц может составлять менее 300 символов. Для поискового алгоритма такие страницы могут выглядеть как копии. Если скрыть теги, то страницы будут уникальными в рамках сайта. При скрытии в коде такие блоки выглядит как .