ElasticSearch之Tokenizer 分词器
生活随笔
收集整理的這篇文章主要介紹了
ElasticSearch之Tokenizer 分词器
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
java學習討論群:725562382?
Tokenizer?
?Standard Tokenizer
curl -X POST "192.168.0.120:9200/_analyze" -H 'Content-Type: application/json' -d'
{
? "tokenizer": "standard",
? "text": "The 2 QUICK Brown-Foxes jumped over the lazy dog\u0027s bone."
}
?
總結
以上是生活随笔為你收集整理的ElasticSearch之Tokenizer 分词器的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: hdu2110(普通母函数)
- 下一篇: hdu2152(普通母函数)