zoukankan      html  css  js  c++  java
  • 信息的质量

         我觉得通过搜索获取的信息在质量上存在下面的问题:
         1、过多的重复信息。
         由于不同网站转载同样的信息内容,搜索时可能得到的大部分是重复信息,而目前搜索引擎不对重复信息进行过滤处理。
         2、很难辨别信息的真伪。
         由于搜索引擎只是对信息进行索引,不能对信息的真伪进行判断,所以虚假信息会与真正信息一起被显示出来。
         3、难很辨别信息的权威性。
         目前搜索引擎只对搜索结果进行排名,而不对信息的权威性进行评价,一些不合理、不科学、误导性的信息也与正常信息一起显示,尤其是健康方面的信息,而且即使有人发现了有问题的信息,也无法让搜索引擎知道,对这些信息进行过滤。
         
         对于第一个问题,我觉得只要搜索引擎调整一下搜索结果排名算法,最先几个发布该信息的网站,排名应该靠前,其余应该认为是转载,排名应该靠后。
         对于第二个问题,我觉得可以通过举报制度,减少虚假信息的概率,假如用户在搜索时发现虚假信息,可以向搜索引擎举报,如果某条信息被不同用户举报的次数达到一定数量就可以认为这是虚假信息,然后在搜索结果可以提醒用户或直接从搜索结果中排除。
         对于第三个问题,我觉得搜索引擎可以对网站的权威性进行评价(或者通过第三方机构),然后根据信息来源网站的权威值,计算信息的权威值,再结合举报制度,将一些有问题的信息过滤。
  • 相关阅读:
    面试后的一些思考
    NEW关键字的三种用法
    关于反射的初步介绍
    REF和OUT关键字的介绍
    关于WPF中TextBox行的选择与显示的问题
    资源字典——程序集之间的资源共享
    rsync 实现断点续传
    CentOS 7 安装 Git
    使用 docker 拉取镜像和创建容器-nginx
    docker安装 之 ---CentOS 7 系统脚本自动安装
  • 原文地址:https://www.cnblogs.com/dudu/p/480895.html
Copyright © 2011-2022 走看看