zoukankan      html  css  js  c++  java
  • 信息的质量

         我觉得通过搜索获取的信息在质量上存在下面的问题:
         1、过多的重复信息。
         由于不同网站转载同样的信息内容,搜索时可能得到的大部分是重复信息,而目前搜索引擎不对重复信息进行过滤处理。
         2、很难辨别信息的真伪。
         由于搜索引擎只是对信息进行索引,不能对信息的真伪进行判断,所以虚假信息会与真正信息一起被显示出来。
         3、难很辨别信息的权威性。
         目前搜索引擎只对搜索结果进行排名,而不对信息的权威性进行评价,一些不合理、不科学、误导性的信息也与正常信息一起显示,尤其是健康方面的信息,而且即使有人发现了有问题的信息,也无法让搜索引擎知道,对这些信息进行过滤。
         
         对于第一个问题,我觉得只要搜索引擎调整一下搜索结果排名算法,最先几个发布该信息的网站,排名应该靠前,其余应该认为是转载,排名应该靠后。
         对于第二个问题,我觉得可以通过举报制度,减少虚假信息的概率,假如用户在搜索时发现虚假信息,可以向搜索引擎举报,如果某条信息被不同用户举报的次数达到一定数量就可以认为这是虚假信息,然后在搜索结果可以提醒用户或直接从搜索结果中排除。
         对于第三个问题,我觉得搜索引擎可以对网站的权威性进行评价(或者通过第三方机构),然后根据信息来源网站的权威值,计算信息的权威值,再结合举报制度,将一些有问题的信息过滤。
  • 相关阅读:
    Silverlight 自定义表格 转
    Application_BeginRequest事件过滤恶意提交
    存储过程学习1
    我是博客园新博客
    努力将SQL Server像玩游戏一样熟练
    【Demo 0003】支持交互的应用
    【Demo 0003】支持交互的应用
    linux终端快捷键
    vim与windows/linux之间的复制粘贴小结
    vimgrep简单使用
  • 原文地址:https://www.cnblogs.com/dudu/p/480895.html
Copyright © 2011-2022 走看看