Сайты - по стандартам, но не стандартные сайты!
Хотелось бы использовать на сайте тег noindex (для оптимизации под Яндекс).
Можно ли как-то сделать, чтоб сайт проходил при этом валидацию xhtml strict ?
(как предположение - может добавить какие-то xml - объявления..?)
Нет на форуме
robert
А нельзя ли добиться того же эффекта, используя лишь файл robots?
Нет на форуме
robots.txt запрещает доступ к определенным файлам и каталогам на сайте. Как и meta name="robots" ..
А мне надо "закомментировать" для Яндекса некоторые тексты уже в самом файле. Это позволит улучшить поиск в выдаче Яндекса по некоторым словам (Яндекс учитывает частотность появления слов в тексте)
Вопрос, наверно, к теоретикам XML - возможно ли описать новый тэг в xhtml файле (ведь XML это позволяет) так, чтобы и валидатор не ругался и чтоб браузеры ("паук Яндекса") не "пугались"?
А вообще, в XHTML новые элементы (тэги) возможны?
И как это будет влиять на вывод информации в браузерах?
Нет на форуме
Часто прибегал к дурацкому принцыпу размещения ключей в meta и ко всему из этого вытекающему...
На счет новых тегов: скорее всего, придется изменять уже существующие, в это-то и заключается удобство xhtml.
Что касается xml: ни разу не смог написать законченное описание чего-то в html, чтобы одновременно оно работало как нужно и файл проходил бы валидацию.
Если кто-то может написать хоть немного очертаний нужного кода, будет любопытно сравнить его с моими предположениями, сам же я пока не рискую советовать по незнакомым мне темам.
Нет на форуме