首页 诗词 字典 板报 句子 名言 友答 励志 学校 网站地图
当前位置: 首页 > 教程频道 > 网络技术 > 网络基础 >

最简略的搜索引擎思路

2012-10-28 
最简单的搜索引擎思路在某些人类教育学网站上欣赏图片多了,忍不住总想保留下来些什么。于是自己写了一个最

最简单的搜索引擎思路
在某些人类教育学网站上欣赏图片多了,忍不住总想保留下来些什么。于是自己写了一个最简单的页面抓取图片的类。算法是相当的简单了,目前只有单线程,未做深度链接的自动识别,只能在一个页面上抓图。希望自己能慢慢的完善起来吧,在此做个备份。另求搜索匹配算法,能够替换我目前的算法的最好。

package cn.xwm;import java.awt.image.BufferedImage;import java.io.File;import java.io.IOException;import java.io.InputStream;import java.net.URL;import java.util.ArrayList;import javax.imageio.ImageIO;import org.apache.http.HttpEntity;import org.apache.http.HttpResponse;import org.apache.http.client.ClientProtocolException;import org.apache.http.client.HttpClient;import org.apache.http.client.methods.HttpGet;import org.apache.http.impl.client.DefaultHttpClient;/** * @author swimming.xu * */public class Main {private static String DIR="E:\\TEMP\";private static String URL="http://www.sina.com.cn/";private static String PIC=".jpg";private static String FILENAME="jpg";public static void main(String[] args) throws ClientProtocolException, IOException {HttpClient httpClient = new DefaultHttpClient();HttpGet httpGet = new HttpGet(URL);HttpResponse response = httpClient.execute(httpGet);HttpEntity entity =response.getEntity();StringBuilder builder = new StringBuilder();if(entity != null){InputStream inputStream = entity.getContent();int l;byte[] temp = new byte[2048];while((l = inputStream.read(temp))!=-1){builder.append(new String(temp));}}ArrayList<String> imgs = analyseImgs(builder.toString());savetodisk(imgs,makedir(Main.URL));}/** * 根据URL创建目录 * @param url */private static String makedir(String url) {String dirname = url.substring(url.indexOf(".")+1,url.lastIndexOf("."));File file = new File(Main.DIR+dirname);if(!file.exists()){file.mkdirs();}return file.getPath();}/** * 存储图片到硬盘 * @param imgs * @param diskuri */private static void savetodisk(ArrayList<String> imgs,String diskuri) {for(String tt:imgs){System.out.println("图片地址: "+tt);Main.writeImageLocal(diskuri+tt.substring(tt.lastIndexOf("/"),tt.lastIndexOf(PIC))+PIC, Main.loadImageUrl(tt));}}/** * 根据获取到的HTML页面分析图片 * @param string * @return */private static ArrayList<String> analyseImgs(String string) {ArrayList<String> list = new ArrayList<String>();String[] temp = string.split(PIC);for(String a:temp){list.add(a.substring(a.lastIndexOf("http://"))+PIC);}return list;}/** * 通过URL地址获取图片 * @param imgName * @return */public static BufferedImage loadImageUrl(String imgName)     {         try        {             URL url = new URL(imgName);             return ImageIO.read(url);         } catch (IOException e)         {             System.out.println(e.getMessage());         }         return null;     }         /**   * 生成新图片到本地   */    public static void writeImageLocal(String newImage, BufferedImage img)     {         if (newImage != null && img != null)         {             try            {                 File outputfile = new File(newImage);                 ImageIO.write(img, FILENAME, outputfile);             System.out.println("one jpg saved");        } catch (IOException e)             {                 System.out.println(e.getMessage());             }         }     }     }


用到的JAR包
httpclient-4.1.1.jar
httpclient-cache-4.1.1.jar
httpcore-4.1.jar
httpmime-4.1.1.jar  <input type="button" value="ts" onclick="GetImg()" />
  <script type="text/javascript">
  <!--
function GetImg()
{
var imgs = window.frames["test"].document.images;
var arr = [];
for(var i=0,len=imgs.length; i<len; i++)
{
arr[i] = imgs[i].src;
}
alert(arr.join("\r\n"));
}
  //-->
  </script>

把上面代码拷贝到记事本,另存为xxx.hta文件,双击运行就ok了。有了 url 地址,再用 xmlhttp 对象下载图片,搞定。  <input type="button" value="ts" onclick="GetImg()" />
  <script type="text/javascript">
  <!--
function GetImg()
{
var imgs = window.frames["test"].document.images;
var arr = [];
for(var i=0,len=imgs.length; i<len; i++)
{
arr[i] = imgs[i].src;
}
alert(arr.join("\r\n"));
}
  //-->
  </script>

把上面代码拷贝到记事本,另存为xxx.hta文件,双击运行就ok了。有了 url 地址,再用 xmlhttp 对象下载图片,搞定。
楼上的思路非常不错 4 楼 feiyan35488 2011-05-25   我用jsoup抓过,非常方便。 5 楼 sam.ds.chen 2011-05-25   document.images只对<img>有用,不能提取css中引用的图片资源。
所以还需要写几行脚本从css中提取图片URL 6 楼 dsjt 2011-05-25   可以考虑把下载功能交给迅雷等工具,
增强嗅探功能和过滤功能 7 楼 城的灯 2011-05-26   推荐jsoup 8 楼 liuyupy 2011-05-26   建议参考Heritrix来学习

热点排行