Python MicroTokenizer-0.19.2-py2.py3-none-any.whl模块包
下面是该Python项目安装包的资源下载地址:
MicroTokenizer-0.19.2-py2.py3-none-any.whl.wheel
文件名称:MicroTokenizer-0.19.2-py2.py3-none-any.whl
版权声明:本程序为网上收集,用户上传,仅供研究学习计算机编程等技术为目的,版权归原作者所有。
所属PyPI项目:MicroTokenizer
文件大小: 36.8 MB
文件类型: Wheel
适用的Python版本:py2.py3
下载文件的哈希值:
SHA256:aa356b0aacbfa6f6c35a762afd87d4749b55ce01fd2c421fc4f12847983a3e6a
MD5:65f5e975abddc137a0ea5574857d868e
BLAKE2-256:a309d4afddbbd79e2447c3c6f50e6ae3448eacd6aed013f793eb823bb297c106
选择下载地址 热度
851 ℃ | 2024-04-29
- 如果发现本程序安装包或源码失效或下载失败,可以联系站长修复!谢谢。
- 可以使用迅雷等多线程下载专用软件进行加速下载。
- 少部分程序支持BT/磁力下载。
- 少部分程序可能需要编译安装,或下载源码自行安装,也可以使用
pip
命令进行安装。 - 放在网盘上的资源可能会被限速,可能需要注册或者购买对方VIP服务才能快速的下载。
- 如遇压缩包需要密码解压的,密码为 www.cnpython.com (全部小写),不是此密码非本站下载资源。
PyPI项目包:MicroTokenizer
微型中文分词器
一个微型的中文分词器,目前提供了七种分词算法:
- 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 Trie Tree 构建前缀字典树
- 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词
- 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型
- 正向查看全文