BlackvsEvgen
Постоялец
- Регистрация
- 13 Янв 2009
- Сообщения
- 103
- Реакции
- 3
- Автор темы
- #1
Добрый вечер. Пишу парсер контента, а в пхп еще слабо понимаю. Написал вот такое :
Все работате и грабитса, но возникла такая ситуация что на сайте допустим 100 статей, как можно их спарсить и каждую статью записать в отдельный тхт файл ? Я понимаю что все адреса нужно загнать в массив и потом его прогонять по скрипту, но не могу реализовать такое . Кто разбираетса, помогите плиз.
PHP:
<?
$grab=file_get_contents("http://sait.ru/article379/");
if ($grab) {
$pos = strpos($grab, "<p>"); // Ищет первую строку с этим тэгом
$grab = substr($grab, $pos); // Обрезает до неё все
$grab = substr($grab, 0, strpos($grab, "<h2>Поиск по сайту</h2>"));
echo $grab; // Вывод Обрезанную страницу
$file = fopen("content.txt","a+"); // Открываем файл
flock($file,LOCK_EX);
$count = fread($file,100);
$count = strip_tags($grab); // Убираем все тэги со страницы
ftruncate($file,0);
fwrite($file,$count); //Записываем текст в файл
flock($file,LOCK_UN);
fclose($file);
}
else { echo "Connection Error"; } ?>
Все работате и грабитса, но возникла такая ситуация что на сайте допустим 100 статей, как можно их спарсить и каждую статью записать в отдельный тхт файл ? Я понимаю что все адреса нужно загнать в массив и потом его прогонять по скрипту, но не могу реализовать такое . Кто разбираетса, помогите плиз.