- 01
- 02
- 03
- 04
- 05
- 06
- 07
- 08
- 09
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
<?
if (isset ($_REQUEST["all_url"]))
{
$res = $_REQUEST["all_url"];
$res = trim($res);
$res = explode("\n", $res);
// начало работы с каждым адресом поочереди
foreach ($res as $key => $url) {
$home_site = parse_url($url);
$home_site = $home_site['host']; // URL адреса по которому ищем ссылки
/*
$ch = curl_init (); // инициализация
curl_setopt ($ch , CURLOPT_URL , $url); // адрес страницы для скачивания
curl_setopt ($ch , CURLOPT_USERAGENT , "Mozilla/5.0 (Windows; U; Windows NT 5.1; ru-RU; rv:1.7.12) Gecko/20050919 Firefox/1.0.7"); // каким браузером будем прикидыватьсяs
curl_setopt ($ch , CURLOPT_RETURNTRANSFER , 1 ); // нам нужно вывести загруженную страницу в переменную
$content = curl_exec($ch); // скачиваем страницу
curl_close($ch); // закрываем соединение
*/
$content = file_get_contents($url);
if ($content) {
// поиск ссылок в исходном коде
$result = preg_match_all("/<[Aa][ \r\n\t]{1}[^>]*[Hh][Rr][Ee][Ff][^=]*=[ '\"\n\r\t]*([^ \"'>\r\n\t#]+)[^>]*>/",$content, $m);
if ($result) {
$count_url = count($m[1]);
$i = 0;
$j = 0;
$d = 1;
$count = 0;
$count2 = 0;
while($i<$count_url) {
//$str1 = stristr($m[1][$i],"http://");
//$str2 = stristr($m[1][$i],"www.");
//$str3 = stristr($m[1][$i],$home_site);
echo ++$j.". ".$m[1][$i]."<br>";
// поиск внешних ссылок
if ((stristr($m[1][$i],"http://") || stristr($m[1][$i],"www.")) && !stristr($m[1][$i],$home_site)) {
$count = $d++;
//echo "------->".$m[1][$i]."<br>";
}
$i++;
}
$count2 = $count_url - $count;
echo "<br><b>".$url."<br></b> Внешних: ".$count.". ";
echo "Внутренних: ".$count2.".<br>------------------------------------<br>";
}
else {echo "Не получены ссылки с сайта <b>".$url."</b><br><br>";}
}
else {echo "Не получен исходный код с сайта <b>".$url."</b><br><br>";}
}
}
?>