Iga
Гуру форума
- Регистрация
- 12 Янв 2014
- Сообщения
- 425
- Реакции
- 83
- Автор темы
- #1
Всем привет!
На входе есть файл с адресами страниц сайта, много 15тыс+. Их надо сократить через tinyurl, к примеру.
С php я знаком поверхностно, т.к. скорее просто верстальщик. Но у меня благополучно получилось вытаскивать из файла список ссылок, загонять его в массив и потом через foreach отправлять ссылки на api tinyurl и потом записывать результат в файл.
Вроде бы всё работает, но работает оно при количестве ссылок в штук 50, далее сервак отдаёт 500 и в логе таймаут. В настройках ставил таймаут с большим количеством нулей, но это не помогло особо.
Собственно вопрос. Может как-то можно брать этот массив кусками и постепенно записывать его в файл? Чтобы это происходило не одной операцией, а множеством, тем самым не снося мозги у сервака.
На входе есть файл с адресами страниц сайта, много 15тыс+. Их надо сократить через tinyurl, к примеру.
С php я знаком поверхностно, т.к. скорее просто верстальщик. Но у меня благополучно получилось вытаскивать из файла список ссылок, загонять его в массив и потом через foreach отправлять ссылки на api tinyurl и потом записывать результат в файл.
Вроде бы всё работает, но работает оно при количестве ссылок в штук 50, далее сервак отдаёт 500 и в логе таймаут. В настройках ставил таймаут с большим количеством нулей, но это не помогло особо.
Собственно вопрос. Может как-то можно брать этот массив кусками и постепенно записывать его в файл? Чтобы это происходило не одной операцией, а множеством, тем самым не снося мозги у сервака.