MeteorMan Blog

Genius is one percent inspiration and ninety-nine percent sweat.

ACL2020专题论文大放送

论文分享(一)

MeteorMan将在本文针对ACL2020开源论文分专题介绍。 如今ACL2020已结束,各大论文已经放出,眼热的我针对里面的论文资源依据个人兴趣分门别类整理,并特别针对开源论文进一步处理,将其划分为如下4大专题: 问答系统和阅读理解 问题生成 自然语言推理 预训练语言模型及应用 1.QA问答系统及机器阅读理解 Harvesting and Refini...

在Linux后台运行脚本的方法和命令

模型部署系列(二)

MeteorMan将在本文针对模型启动脚本如何在后台部署进行介绍。 ​ 在模型部署时我们经常会发现当前shell关闭后,开启的模型服务也会被关闭,因此需要一种命令可以让服务在后台不中断的运行。此处在这里使用nohup命令。 1.开启服务 ​ Step1:服务启动(打印信息会输出到当前目录下的nohup.out中) #nohup ./test.sh & ​ S...

经验分享:大小厂算法之争

求职经验

大厂、外企、创业公司……到底什么样的平台更适合自己呢?今天MeteorMan就和大家聊聊在不同平台的算法岗工作体验,给正在纠结的大家一些决策参考! ​ 暂且将互联网公司进行以下分类: ​ 成长期的初创公司:指<=C轮融资的公司,这类公司一般小而美,有着很强的创始人团队,准备在某个领域大展拳脚。因为涉及互联网,对技术人才的需求是很大的,很多围绕AI+创立的企业更是有丰富...

基于Transformer的深度语义匹配模型DSSM

语义匹配系列(一)

万丈高楼平地起! ​ MeteorMan目前的研究方向是问答系统和知识图谱,在研究的过程中愈加感受到语义匹配的重要性,因此特此开篇,记录并讲述语义匹配相关知识。 ​ 一个完整的问答系统处理流程主要分为3个部分:1.解析;2.匹配;3.生成。本文首先对匹配部分所用方法进行简单介绍,后面将详细介绍基于Transformer的语义匹配模型以及开源实现。 1.业界采用的匹配技术方案 ...

ubuntu18.04配置TensorFlow-gpu

模型部署系列(二)

MeteorMan将在本文继续阐述模型部署系列之环境配置的相关文章。 1.机器配置查看 首先安装英伟达显卡驱动: (1)输入终端命令: ubuntu-drivers devices sudo ubuntu-drivers autoinstall (2)重新启动 sudo reboot (3) 查看nvidia显卡版本命令: nvidia-smi 经验证,Met...

以BERT分类为例阐述模型部署关键技术

模型部署系列(一)

MeteorMan将在本文针对自然语言处理领域的新兴BERT模型进行部署介绍,使其真正应用到工业界的生产环境中。 1.模型训练 ​ 可以根据该仓库的介绍训练出一个BERT分类模型,而后基于exported脚本将模型导出为Saved_Model格式。 ​ 然后可以利用saved_model_cli命令来探索该模型的输入输出结构(该命令需要切换包含tensorflow的pyth...

NLP中的对话系统

针对各个细领域及相关技术进行介绍

For you always, sir. ​ 每次与公司同事和实验室组员谈及对话系统这个话题,我的内心都非常激动,因为太爱这个领域,或许是受到了钢铁侠管家“贾维斯”的影响,毕竟我最爱的漫威英雄是Iron Man。在研究和工作的业余时间,我也在继续研究这个领域,在知识图谱、自然语言理解、自然语言生成、闲聊系统都有所涉猎。本文主要是对Dialogue System及其相关技术进行介绍...

关闭某个特定端口

模型部署

模型部署也是一套学问! 今天在进行模型部署时,总是提示端口已经被使用,于是记录下关闭端口的相关操作。 关闭端口可分为两步:1.查看占用该端口的进程号;2.关闭/杀死该进程。 1.win10系统操作 1.1 查看指定端口的使用情况 netstat -ano | findstr 5595 显示信息如下所示,其中29488即为占用该端口的进程id 1.2 关闭该进程 ...

大话NLP领域的传统词向量预训练

面向word2vec、fasttext以及glove的对比分析

往往更经典的工作越能让人敬重知识的力量! 在之前的文章从WE到BERT中已经详细讲解了介绍了word2vec的相关知识,本文主要是对word2vec、glove以及fasttext进行对比介绍、分析。 Word2vec ​ 相信word2vec大家已经耳熟能详了吧(甚至有些人已经耳朵起茧了),但是MeteorMan在2019.11阅读了一篇深入解析word2vec的文章,让人...

从WE到BERT

自然语言预训练:从Word Embedding到蒂花之秀BERT

本文将针对自然语言处理的语言模型预训练领域进行梳理,并介绍其各自优缺点。 前言 ​ 最近自然语言处理领域的预训练风头正盛,无集群、无TPU的我们只能看着大佬们各自秀出自己的trick(MeteorMan就是如此眼巴巴的看着)。而所有的预训练模型基于都可归为BERT模型的推动,由此可见BERT的重要性。由于模型太多,近段时间也一直忙于工作和答辩,并未好好梳理现阶段的潮流模型,因此...