Python MicroTokenizer-0.19.2-py2.py3-none-any.whl模块包


下面是该Python项目安装包的资源下载地址:

  • MicroTokenizer-0.19.2-py2.py3-none-any.whl.wheel

  • 文件名称:MicroTokenizer-0.19.2-py2.py3-none-any.whl

    版权声明:本程序为网上收集,用户上传,仅供研究学习计算机编程等技术为目的,版权归原作者所有。

    所属PyPI项目:MicroTokenizer


  • 文件大小: 36.8 MB

    文件类型: Wheel

    适用的Python版本:py2.py3

    下载文件的哈希值:
        SHA256:aa356b0aacbfa6f6c35a762afd87d4749b55ce01fd2c421fc4f12847983a3e6a
        MD5:65f5e975abddc137a0ea5574857d868e
        BLAKE2-256:a309d4afddbbd79e2447c3c6f50e6ae3448eacd6aed013f793eb823bb297c106






  1. 如果发现本程序安装包或源码失效或下载失败,可以联系站长修复!谢谢。
  2. 可以使用迅雷等多线程下载专用软件进行加速下载。
  3. 少部分程序支持BT/磁力下载。
  4. 少部分程序可能需要编译安装,或下载源码自行安装,也可以使用 pip 命令进行安装。
  5. 放在网盘上的资源可能会被限速,可能需要注册或者购买对方VIP服务才能快速的下载。
  6. 如遇压缩包需要密码解压的,密码为 www.cnpython.com (全部小写),不是此密码非本站下载资源。

PyPI项目包:MicroTokenizer

微型中文分词器

一个微型的中文分词器,目前提供了七种分词算法:

  1. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 Trie Tree 构建前缀字典树
  2. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词
  3. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型
  4. 正向

    查看全文