【人工智能项目】Bert实现阅读理解

【人工智能项目】Bert实现阅读理解

在这里插入图片描述

相信大家在学生时代,语文考试中有这样一种类型的题:阅读理解。首先给你一段材料,然后根据上述材料回到问题。

有这么经历的同学们,就很容易理解本次任务,就是根据给出的材料,回答相应问题。本次主要是通过github中已存有的源码进行训练并测试给出答案。

数据集

本次所用的数据集大致格式如下:
在这里插入图片描述

实验环境

本次的实验环境还是一如既往一往情深的选用了google colab。主要是当时疫情期间做的项目,没卡用。

!nvidia-smi

在这里插入图片描述

本次训练源码以及预训练模型

# 从这里面找模型替换 https://github.com/ymcui/Chinese-BERT-wwm
!wget https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip

在这里插入图片描述

!unzip chinese_L-12_H-768_A-12.zip

在这里插入图片描述

# 本次代码
!git clone https://github.com/caldreaming/CAIL.git

在这里插入图片描述

安装本次所需的模块

!mv CAIL/*   .
!pip install -r bert/requirements.txt
!pip install tensorflow-gpu==1.13.1

在这里插入图片描述

!pip install keras==2.2.4

在这里插入图片描述

!pip install numpy==1.17.4

训练

!python bert/run_cail_with_yorn.py \
  --vocab_file=chinese_L-12_H-768_A-12/vocab.txt \
  --bert_config_file=chinese_L-12_H-768_A-12/bert_config.json \
  --init_checkpoint=chinese_L-12_H-768_A-12/bert_model.ckpt \
  --do_train=True \
  --train_file=./big_train_data.json \
  --train_batch_size=8 \
  --learning_rate=3e-5 \
  --num_train_epochs=7.0 \
  --max_seq_length=512 \
  --output_dir=output/cail_yorn/

在这里插入图片描述

测试

!python bert/run_cail_with_yorn.py \
  --vocab_file=chinese_L-12_H-768_A-12/vocab.txt \
  --bert_config_file=chinese_L-12_H-768_A-12/bert_config.json \
  --do_predict=True \
  --predict_file=my_data.json \
  --max_seq_length=512 \
  --output_dir=output/cail_yorn/

在这里插入图片描述
生成的结果文件
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

小结

点赞评论收藏走起来瓷们!!!
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

mind_programmonkey

你的鼓励是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值