VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > Python基础教程 >
  • C#教程之es简单打造站内搜索

最近挺忙的,在外出差,又同时干两个项目。白天一个晚上一个,特别是白天做的项目,马上就要上线了,在客户这里 三天两头开会,问题很多真的很想好好静下来怼代码,半夜做梦都能fix bugs~ 和客户交流真的是门技术,一不小心你就会掉坑里,慢慢来吧~ 

站内搜素其实也是老生常谈,估计很多程序员门都做过或者接触过,记得大三那会 那是比较常见的解决方案就是lucene.net 和盘古分词,后来又用jieba分词,

首先就是和数据库同步,我们把数据扔给lucene.net  ,lucene.net 拿到数据 进行分词,然后保存在索引库中,当用户搜索的时候,就从索引库中进行搜索。lucene.net 对中文分词不是太优化,所以常用的就是盘古分词  庖丁解牛  jieba分词,这种方式适合个人站点 数据量不是太大的情况下,目前很少有采用这种解决方案的,看官们感兴趣的可以百度了解一波,实现起来也不难。 

前端时间elastc上市,市值50亿美金,刚开始我还吓一大跳~ 接触es是去年, 项目做日志统计使用exceptionless,所以也就初步了解了elasticsearch  也逐步了解logstash kibana   速度是真的快,吊打sqlserver啊! 哈哈 毕竟不是一系列的东西=

今天简单实现的站内搜索采用的就是 elasticsearch,数据源就是这段时间每天爬取博客园获取到的将近6000篇文章,放到sqlserver了,后续会共享

起初 想要搞sqlserver 和 es的数据同步,我写的这个服务每小时就会爬取博客园一次 获取最新50条数据,重复的就不算了。数据同步可以采用logstash,首先就是全量同步,再次就是增量同步,可能是因为版本原因吧,都是采用的最新版本,采用logstash进行数据同步 老是失败,有待探索,索性就用ef 先做个全量同步,再靠这个定时服务做以后的增量,数据本身就是经过去重处理的,况且也不存在修改 删除的情况

 

首先就是配置java环境变量  然后部署 elk 官网地址是 : https://www.elastic.co/cn/

下载好三件套之后 我们可以把es部署成windows服务  在bin目录下 运行elasticsearch-service.bat

服务开启后,es默认http地址是 http://localhost:9200/

 

es启动成功后  启动kibana 服务  同样也是在bin目录下执行kibana.bat,kibana对es来说 真的是一个神器,

可以在上面操作dsl  做数据分析等待  默认地址是http://localhost:5601

 

然后就是安装ik了,ik是中文分词插件,github地址是:https://github.com/medcl/elasticsearch-analysis-ik

从releases下载 我下载的最新版 6.4.2 下载后复制到es的plugins 目录下,解压就行了。然后去kibana检查是否安装成功,具体操作见github 

ik分词策略有ik_max_word 和 ik_smart   ik_max_word会将文本做最细粒度的拆分,例如「中华人民共和国国歌」会被拆分为「中华人民共和国、中华人民、中华、华人、人民共和国、人民、人、民、共和国、共和、和、国国、国歌」,会穷尽各种可能的组合;

ik_smart会将文本做最粗粒度的拆分,例如「中华人民共和国国歌」会被拆分为「中华人民共和国、国歌」;

 

ik安装后之后 就是在kibana创建index  和mapping了

es和我们常用的sqlserver等关系型数据库对比如下:

DB:DataBases=>Tables=>Rows=>Columns

ES:Indices=>Types=>Documents=>Fields

创建Index

在kibana Dev Tools 操作dsl    

 

复制代码
PUT /cnblogdb  (注意 必须为小写)

POST /cnblogdb/articles/_mapping
{
        "properties": {
            "content": {
                "type": "text",
                "analyzer": "ik_smart",
                "search_analyzer": "ik_smart"
            },
            "title":{
              "type":"text",
                "analyzer": "ik_smart",
                "search_analyzer": "ik_smart"
            },
            "summary":{
            "type":"text",
              "analyzer": "ik_smart",
                "search_analyzer": "ik_smart"
              
              },
              "author":{
                "type":"text",
                "analyzer": "ik_smart",
                "search_analyzer": "ik_smart",
                "fielddata": true,
                "fields": {
                  "raw":{
                    "type":"keyword"
                  }
                }
              }
        }
}
复制代码

 

可以看到 在_mapping 的时候 author字段 加了fielddata 属性  和fields   

关于fielddata 详细介绍可移步 https://www.elastic.co/guide/cn/elasticsearch/guide/current/preload-fielddata.html

在这里设置fielddata为true是因为 后续的根据author字段进行聚合检索 es在默认情况下对text类型的字段是不可聚合的

 

设置 fields :{raw:{type:keyword }} 是因为我们在对author字段进行聚合的时候,因为上面的ik分词策略,所以我们聚合到的结果是分词后的结果,

比如author为 张教主  聚合结果就成了张,教主 这样的结果,设置他就类似有了个别名。

 

 

c#中操作es 使用Nest 

github地址是 https://github.com/elastic/elasticsearch-net

 数据源地址是:  http://zycoder.oss-cn-qingdao.aliyuncs.com/ali/blog.sql

这个数据是sqlserver的脚本数据 整到es也是很简单的

创建esclient   es多见于分布式  多节点 我们搞着学习就不必要了

 

var node = new Uri("http://localshot:9200");
var settings = new ConnectionSettings(node);
var client = new ElasticClient(settings);

看项目 界面截图 就是一个简单的多字段匹配检索 和 聚合 

创建Model 此model是与type相对应的

复制代码
[ElasticsearchType(Name ="articles")]  
    public partial class Articles
    {
        public int Id { get; set; }

        [Text(Analyzer = "ik_smart")]  
        public string Title { get; set; }

        public string ItemUrl { get; set; }
        [Text(Analyzer = "ik_smart")]
        public string Sumary { get; set; }
        [Text(Analyzer = "ik_smart", Fielddata = true)]
        public string Author { get; set; }

        public string PubDate { get; set; }
        [Text(Analyzer = "ik_smart")]
        public string Content { get; set; }
    }
复制代码

首先就是首页的高亮检索了  代码如下:

复制代码
       public ActionResult GetArticles()
        {
            Stopwatch sw = new Stopwatch();
            sw.Start();
            string keyWords = Request.Params["keyWords"];
            string author = Request.Params["author"];
            int.TryParse(Request.Params["page"], out int page);
            page = page <= 1 ? 1 : page;
            int start = (page - 1) * 10;

            var query = new SearchDescriptor<Articles>();
            if (!string.IsNullOrWhiteSpace(author))
            {
                query= query.Query(q => q.Match(m => m.Field("author").Query(author)));
            }
            else
            {
                query = query.Query(q => q.MultiMatch(m => m.Fields(
                        fd => fd.Fields("title", "sumary", "author")
                        ).Query(keyWords)
                        ));
            }
            query = query.Highlight(h => h
               .PreTags(@"<span style='color:red'>")
                  .PostTags("</span>")
                  .Fields(
                      f => f.Field(obj => obj.Title),
                      f => f.Field(obj => obj.Sumary),
                      f => f.Field(obj => obj.Author)
                   )
            ).Sort(c => c.Field("_score", SortOrder.Descending).Field("id", SortOrder.Descending))
                         .From(start).Size(10);
            

            var response = _client.Search<Articles>(query);

            var list = response.Hits.Select(c => new Articles
            {
                Id = c.Source.Id,
                Title = c.Highlights == null ? c.Source.Title : c.Highlights.Keys.Contains("title") ? string.Join("",
          c.Highlights["title"].Highlights) : c.Source.Title,
                Author = c.Highlights == null ? c.Source.Author : c.Highlights.Keys.Contains("author") ? string.Join("",
          c.Highlights["author"].Highlights) : c.Source.Author,
                Sumary = c.Highlights == null ? c.Source.Sumary : c.Highlights.Keys.Contains("sumary") ? string.Join("",
          c.Highlights["sumary"].Highlights) : c.Source.Sumary,
                PubDate = c.Source.PubDate
            });
            sw.Stop();
            ViewBag.Times = sw.ElapsedMilliseconds;
            ViewBag.PageIndx = page;
            ViewData["list"] = list.ToList();
            return View();
        }
复制代码

Sort(c => c.Field("_score", SortOrder.Descending).Field("id", SortOrder.Descending)) 这里我们可以多留意一下,在匹配搜索的时候,
默认排序是根据匹配得分进行排序的,所以我们想要获取最新最匹配的数据,首先就是根据匹配得分进行排序 在根据时间

面板结果如下:

 

Nest进行搜索 语法不做过多讨论 谷歌 百度

然后就是根据author进行聚合 类似数据库语法就是 select author,count(author) from article group by author

dsl 结果如下所示:

size就是最靠前的10位了  小鱼儿同志贡献最多  我所提供的数据源里有56篇文章~

代码如下:

复制代码
     public ActionResult HomeRight()
        {
            var response= _client.Search<Articles>(s => s.Aggregations(aggs => aggs.Terms(
                  "aggs", t => t.Field("author.raw").Size(20).CollectMode(TermsAggregationCollectMode.BreadthFirst)
                  )).Size(0));
            var buckets= response.Aggregations.Terms("aggs").Buckets;
            var authorGroups= buckets.Select(q => new AuthorGroup
            {
                AuthorName = q.Key,
                Count = (int)q.DocCount
            }).ToList();
            ViewData["list"] = authorGroups;
            return View();
        }
复制代码

在c#中 我们就是把dsl 改为lambda去查询 

在聚合的时候 最后 Size(0); 不是取0条数据 而是在聚合搜索的时候 默认也会获取documents 默认为10条 但是我们只是聚合并不需要搜索文档 所以就设置为0 

也减小了内存开销,增加查询速度。

更多资料就是看官方文档了,提供的很全面。

Share End!

 

 

作者:张教主

出处:https://www.cnblogs.com/ZyCoder/p/9863786.html

本站使用「张教主」创作共享协议,转载请在文章明显位置注明作者及出处。



相关教程