Рекомендуется для автоматического продвижения, закупки ссылок и понимания методов: seopult, seowizard, seohammer
Это статья о том, как восстановить сайт из вебархива. Зачем это нужно? Ну что такое вебархив, я полагаю, читатели знают. и да, ежели восстановить из него сайт, положить его на тот же домен - можно сохранить ТИЦы, ПРы и поиметь в той же SAPE немалый профит.
Вообще, самый простой способ - это вручную, прямым копированием забрать оттуда нужный контент, вычистить его от того самого вебархива - ну и сохранить УРЛы так как есть. Долго и муторно.
Посложнее - заказать программу, которая все это сделает за вас. Что весьма недешево.
Ну или обратиться к умельцам - благо есть такая услуга. Тоже недешево.
Метод который я здесь не то что "спалю", но подскажу - он не бесплатный, однако недорогой. И отчего-то малоизвестный.
Итак, палево. Идете вот сюда: r-tools, регистрируетесь. Ну и выкачиваете чего вам нужно. 9000 страниц(девять тысяч) стоит 450р. Как говорится - сравните с. Крайне положительный момент - выкачиваете сайт. Деньги не снимаются. Смотрите на него средствами этой системы. Деньги не списываются. Потом формируете архив и скачиваете сайт себе - вот только тут деньги и списываются.
Чистит эта система качественно. УРЛы сохраняет в первозданном виде. Позволяет автоматом преобразовывать внешние ссылки в текст. Что важно, "движковые" УРЛы восстанавливаются с абсолютной точностью, разумеется выход будет в виде хтмл, но УРЛы, особенно ПРистые, ежели они были со всякими там & и ? - то так оно и будет на выходе. И ПР сохранится. Т.е на выходе вы получаете тот самый сайт из вебархива в виде сайта.
Ну и, что называется, до кучи. В сапе есть категория для сайтов на английском языке, а также есть зарубежные биржи ссылок. И там и там приличные сайты из вебархива берут с удовольствием.