Распиши по-подробнее как именно анализируешь.
Я в замешательстве.
... получение данных, или выборки из данных с последующим их анализом, это одно. А выдержит или не выдержит, это тоже самое что упадет/не упадет, и это уже совсем другое.
По профайлерам много писать, тем боле все уже написано за нас.
Чтобы посмотреть выдержит сервер с DLE или нет, заливаем на хост и нагружаем с помощью loadimpact.com (для начала бесплатной - 50 коннектов из одной точки), и смотрим например с помощью top на нагрузку, загрузку на сетевых интерфейсах сморим например ifstat или nload, логируем log_slow_queries в mysql если нужно. Ответы сервера (200, 304)
Потом прикидываем что и как, если 50 коннектов сервер не ощутил (что логично), то переходим к платной версии loadimpact.com и бьем сервер до тех пор, пока не ощутит.
Например сервер при 300 напрягается, но не падает, тогда умножаем 200 (с запасом
) 200*1440 и получаем сколько юзеров в сутки выдерживает сервер (при равном распределении юзеров = 200 в минуту при пике 300).
Перед каждым тестом, всегда скидываем все кеширование - перезагружая демонов, удаляем файлы кеша, иначе не показательно.
Под большую mysql БД, нужно в первую очередь ориентироваться под количество оперативки, так как индексы придется кешировать.
Если кешировать отдельные блоки, то для этого лучше использовать оперативку (xcache), а не файлы. Если же кешировать страницу целиком, и есть фронтэнд (nginx например), то лучше в файлы, и настроить nginx так, чтобы первым делом он искал кеш, а не дергал php который отдаст ему файл.