Bert-util安装

转载:https://blog.csdn.net/u013109501/article/details/91987180

https://blog.csdn.net/Vancl_Wang/article/details/90349047

bert_utils: https://github.com/terrifyzhao/bert-utils

bert-Chinese-classification-task

bert-as-service

/bert

一、环境依赖:

  安装Python、tensorflow

python 3.6.8
tensorflow 1.13.1
bert-serving-server 1.9.1
bert-serving-cline 1.9.1

二、安装package

 pip install bert-serving-server

 pip install bert-serving-client

 #可以指定版本
 pip install bert-serving-client == 1.9.6

三、下载中文bert预训练的模型(https://github.com/google-research/bert#pre-trained-models

四、下载成功后,需要解压。解压成功后

五、启动server,在cmd中输入

    bert-serving-start -model_dir D:stutyNLPertchinese_L-12_H-768_A-12 -num_worker=1

参数-model_dir用来指定上步解压的模型路径,参数num_worker=2表示启动了两个worker,可以同时处理2个请求,因此如果用一台配置较高的机器单独做为bert的server,可以通过设定该参数提供高并发支持。

(我当时worker=4的,电脑卡死了。注意model_dir一定要放入模型解压后的地址。)

六、启动成功后。运行代码(csdn某博客的案例)

from bert_serving.client import BertClient
bc = BertClient(ip='localhost',check_version=False, check_length=False)
vec = bc.encode(['CSDN中文IT知识服务集团,业务有IT信息传播、技术交流、教育培训和专业技术人才服务。旗下有网络社区、学习平台和交流平台。'])
print(vec)

7.运行成功后的截图

原文地址:https://www.cnblogs.com/Lee-yl/p/11274876.html