Пока был в бане на нуледе, сделал себе сборку, позволяющую на автомате регать аки и в последующем постить в сервисы закладок.
Но сразу стал вопрос, каким макаром все это делать.
Имеется ввиду не проблема индексации, а наращивание ПР.
Кусок базы взял, что успел обработать в ручную из списка , которые парсит демон. Набралось 30 сервисов без нофоллов.
Просматривал не все сайты, так, как нужны были урлы для эксперимента.
Подход использовал следующий. Сначала, пауком проходил сайт и записывал урлы, титлы , дески и киворды в базу. Затем, при постинге, выхватывал данные из базы и регал в социалках.
Но понял, что все это фигня. Как мне кажется, использование такого софта, невозможно без организации пользовательской сети.
Предположим, при регистрации проекта, часть адресов заносится в общую базу, расположенную на бесплатном сервисе. При постинге в закладки, по конкретному киворду идет поиск тематических ресов в общей базе и идет постинг в перемешку с продвигаемыми адресами.
Скрипт не выкладываю, потому что сырой, и для тех , кто с предателем не дружит - бесполезен.
Но сразу стал вопрос, каким макаром все это делать.
Имеется ввиду не проблема индексации, а наращивание ПР.
Кусок базы взял, что успел обработать в ручную из списка , которые парсит демон. Набралось 30 сервисов без нофоллов.
Просматривал не все сайты, так, как нужны были урлы для эксперимента.
Подход использовал следующий. Сначала, пауком проходил сайт и записывал урлы, титлы , дески и киворды в базу. Затем, при постинге, выхватывал данные из базы и регал в социалках.
Но понял, что все это фигня. Как мне кажется, использование такого софта, невозможно без организации пользовательской сети.
Предположим, при регистрации проекта, часть адресов заносится в общую базу, расположенную на бесплатном сервисе. При постинге в закладки, по конкретному киворду идет поиск тематических ресов в общей базе и идет постинг в перемешку с продвигаемыми адресами.
Скрипт не выкладываю, потому что сырой, и для тех , кто с предателем не дружит - бесполезен.