Закройте в роботсе ненужный дублированный контент:
А еще лучше правильно настроить переадресацию в .htaccess. Недавно попался сайтик, сделанный (к тому же очень криво сделанный) на такой штуке как strawberry CMS. В результате, когда стали заниматься анализом семантики сайта, что там в индекс попало, что нет - на многие странички вело по 3-4 разных ссылки, причем также были странички по типу "версия для печати" и еще некоторые подобные.
Естественно, тут же составили нормальный робот.txt, карту сайта, тем не менее после 4-5 обновлений базы Яндекса - в индексе все равно ужасная каша... Яндекс прекрасно разобрался, что странички с одинаковым контентом, дубли в индекс включать не стал, НО: основная проблема была в том, что поисковый алгоритм сам, на основании ему каких-то ведомых признаков посчитал за основные страницы не те, которые прописаны в меню сайта, и не те, с которыми уже велась работа по оптимизации. Т.е. в одних случаях это была страничка ../print.php?id=12... , в других .../category.php?id=12..., в третьих .../?id=12... , хотя по факту это была практически одна страница. Нормальный результат был достигнут после проставления 301-х переадресаций на целевые странички .../?id=12..., с которыми уже и велась работа.
Собственно, и сами поисковики признают, что robots.txt и карта сайта - это только рекомендация для них, как индексировать сайт, но не более. А вот если страничка закрыта в htaccess, здесь уже деваться им некуда.