ITPub博客

首页 > 人工智能 > 自然语言

关于 “自然语言” 的内容如下:

  • 万字长文带你纵览 BERT 家族

     2020-05-26 03:08:10自18年底谷歌BERT问世以后,NLP便逐渐步入bert时代,bert家族儿孙满堂,如RoBERTa、ALBert、ERNIE等等,这些bert们正在给并持续给nlp领域输入无限生机,让人工智能 皇 冠上的明珠更加光彩夺目,在其光芒的照耀下,人类的人工智能之路必定越来越清晰、明朗。通过阅读大量博客资料,知乎专栏和论文,文本以通俗易懂而不失

    AIBigbull2050 自然语言 399 2020-05-26 09:02
  • 百度发布全新 NLG 训练模型 ERNIE-GEN,获 5 项 SOTA

     2020-05-24 17:11:07头图 | CSDN下载自视觉中国5月20日,百度ERNIE重磅发布全新的语言生成预训练模型ERNIE-GEN,解决自然语言处理领域“生成”方向的难题,让机器不但能“理解”人类的意思,还能完成更高阶的“表达”。这项工作在4类语言生成任务,5项国际权威英文数据集上均取得SOTA,被国际顶级AI学术会议IJCAI 2020收录。论文链接:https://

    AIBigbull2050 自然语言 366 2020-05-25 12:56
  • 数据为王的时代,NLP数据产业会是下一个蓝海

    在数据“坐庄”NLP的大背景下,大量的商业机会呈现,而客观上的高要求阻却了大量低门槛入场的玩家,NLP数据相对于CV更像一个蓝海。工作人员齐整坐好,每个人都对着电脑全神贯注,一件又一件的“东西”在眼前划过,经过标准化处理就转到下一流程……这实际上是人工智能行业里的数据标注办公区一角。由于深度学习的研究方向,人力密集型的数据标注工作是推进人工智能技术落地的重要环节之一。很长一段时间以来,在过往AI的

    AIBigbull2050 自然语言 418 2020-05-10 18:04
  • NLP带来的“科幻感”超乎你的想象 - ACL2020论文解读(一)

    京东 AI 研究院专注于持续性的算法创新,80% 的研究都由京东实际的业务场景需求为驱动,聚焦 NLP语音、计算机视觉、机器学习(包括深度学习和强化学习)等领域。在ACL 2020 中,京东 AI 研究院提交论文经过重重审核,最终被大会收录。

    京东云技术新知 自然语言 410 2020-04-30 11:04
  • 调参利器 Fitlog,复旦NLP实验室专用

    2020-04-27 03:07:28作者 | 邱锡鹏本文介绍一个复旦NLP实验室内部使用的调参利器fitlog,开源地址:https://github.com/fastnlp/fitlogfiglog原本是作为fastNLP的一部分开发,后来分为一个单独项目。这里有个简单的介绍:使用fitlog 辅助 fastNLP 进行科研https://fastnlp.readthedocs.io/zh/l

    AIBigbull2050 自然语言 444 2020-04-27 08:39
  • NLPIR九眼文档智能审核比对系统有效解决文档人工审核问题

    使用九眼文档智能核查,对企业意味着什么? 提升审核效率 AI辅助下,2分钟可完成人工需要花4小时才能审完的合同,大大提升了合同审核的效率,降低人工投入成本! 降低法律风险 AI解决占合同审核时间70%的重复性、基础性问题,解放出法务人员应对专业问题与隐藏风险,严防合同法律风险。 赋能企业数据 AI实现“专家”经验的快速学习、累积、复用,避免新手从零开始;赋能企业非结构化数据挖掘与智能化应用能力。

    ljrj123 自然语言 412 2020-04-23 17:44
  • 京东NLP企业级项目实战训练营

    基于先进的AI技术和强大项目实战能力,为培养更多专业人工智能人才,京东经过长时间打磨面向大众学员推出“真企业级项目实战训练营”,让每一位学员切切实实接触到企业级的AI项目资源,从实战中提升自己。

    京东云技术新知 自然语言 499 2020-04-22 23:02
  • ACL 2020 | PLATO:百度发布首个大规模隐变量对话模型

    2020-04-16 19:10:31本文对百度被 ACL 接收的论文《PLATO:Pre-trained Dialogue Generation Model with Discrete Latent Variable》进行解读,相关工作通用领域对话生成预训练模型PLATO 已于去年10月份公布。PLATO 是业界首个基于隐空间(Latent Space)的端到端的预训练对话生成模型。据悉,该模型

    AIBigbull2050 自然语言 447 2020-04-17 08:37
  • 覆盖40种语言:谷歌发布多语言、多任务NLP新基准XTREME

    机器之心报道参与:泽南、蛋酱、杜伟自然语言权威数据集 GLUE 一直是衡量各机构 NLP 预训练技术水平最重要的指标之一。近年来在其榜单之上实现更好的成绩,也成为了科技公司技术提升的体现。不过现有的大多数 NLP 基准仅限于英文任务,无法评价 NLP 模型在其他语言上的能力。近日,来自 CMU、谷歌研究院和 DeepMind 的科学家们提出了覆盖四十种语言的大规模多语言多任务基准 XTREME,希

    AIBigbull2050 自然语言 406 2020-04-15 10:25
  • 百度发布全球首个大规模隐变量对话模型PLATO

    百度于2019年10月公布的通用领域对话生成预训练模型PLATO,最近已正式被ACL 2020接收。PLATO是业界首个基于隐空间(Latent Space)的端到端预训练对话生成模型。据悉,该模型利用隐向量来表示对话的潜在方向,从而达到对话内容丰富度和流畅度的显著提升。针对具体对话任务,基于PLATO可以用少量数据训练得到非常流畅的对话系统。https://www.toutiao.com/a16

    AIBigbull2050 自然语言 436 2020-04-15 10:23
  • CVPR 2020 | 京东AI研究院对视觉与语言的思考:从自洽、交互到共生

    好奇心是个人或者组织创造力的源泉,在权威图像描述生成评测集 COCO 上的成绩彰显了京东 AI 研究院在视觉与语言领域的世界领先水平。

    京东云技术新知 自然语言 407 2020-04-13 17:36
  • 自然语言处理中注意力机制综述

    2020-03-27 00:34:52目录1.写在前面2.Seq2Seq 模型3.NLP中注意力机制起源4.NLP中的注意力机制5.Hierarchical Attention6.Self-Attention7.Memory-based Attention8.Soft/Hard Attention9.Global/Local Attention10.评价指标11.写在后面12.参考文献写在前面近些

    AIBigbull2050 自然语言 440 2020-04-11 19:30
  • 「NLP」NLP的12种后BERT预训练方法

     2020-03-12 21:59:24来源 : 深度学习自然语言处理作者:朝九晚九学校:北京航空航天大学研究方向:自然语言处理目录1. RoBERTa2. ERNIE3. ERNIE 2.04. XLMs5. MASS6. UNILM7. CMLM8. ELECTRA9. SpanBERT10. ALBERT11. MT-DNN12. XLENET1. RoBERTa论文:A Robu

    AIBigbull2050 自然语言 454 2020-04-11 09:54
  • 「NLP」在 NLP 领域创业,真的很难

    2020-03-06 23:22:40来源 | 公子龙作者 | 公子龙从 2015 年开始,在 AI 领域创业的公司如雨后春笋一般林立而起。如果细分的话,可以分为机器学习ML,图像视觉CV,和自然语言处理NLP。当然,理论上来说,CV 和 NLP 也是属于 ML 范围的。市面上,这几个领域的创业公司都有不少,相对而言,CV 领域的公司数目和规模是较大的。我从事 NLP 行业,在相关的创业公司待过一

    AIBigbull2050 自然语言 451 2020-04-10 16:53
  • 【NLP】从Transformer到BERT模型

    2020-03-17 22:49:54来源 | Microstrong作者 | Microstrong目录:ELMo与Transformer的简单回顾DAE与Masked Language ModelBERT模型详解BERT模型的不同训练方法如何把BERT模型应用在实际项目中如何对BERT减肥BERT存在的问题1. ELMo与Transformer的简单回顾1.1 一词多义1.2 ELMoELMo

    AIBigbull2050 自然语言 447 2020-04-10 16:53
  • 【NLP】从静态到动态,词表征近几十年发展回顾

    2020-04-09 22:45:31来源 | AI科技评论作者 | 杨晓凡作者 | 杨晓凡编辑 | 丛末在自然语言处理技术的整个发展历史中,如何把最小语义元素「单词」做数字化表示,一直都是一个研究热点。近几年,用海量无标记文本数据训练出的低维单词表征向量,也就是词嵌入 embedding,已经在包括词性标注、句法解析、命名实体识别、语意角色标注、机器翻译等许多任务中展现出了有效性。但这种词嵌入是

    AIBigbull2050 自然语言 416 2020-04-10 15:29
  • 百分点认知智能实验室出品:情感分析在舆情中的研发实践(上)

    百分点认知智能实验室基于前沿的自然语言处理技术和实际的算法落地实践,真正实现了整体精度高、定制能力强的企业级情感分析架构。从单一模型到定制化模型演变、文本作用域优化、多模型(相关度)融合、灵活规则引擎、以及基于实体的情感倾向性判定,探索出了一套高精准、可定制、可干预的智能分析框架,为舆情客户提供了高效的预警研判服务。

    思动大数据 自然语言 363 2020-04-03 11:30
  • 完胜 BERT,谷歌最佳 NLP 预训练模型开源,单卡训练仅需 4 天

    2020-03-17 17:26:39近日,谷歌宣布将 AI 语言模型 ELECTRA 作为 TensorFlow 之上的开源模型发布。该方法用到了一种称为替换令牌检测(RTD)的新预训练任务,使其能够在从所有输入位置学习的同时,训练双向模型。并且,在同等计算资源的情况下,ELECTRA 的性能优于现有方法;而在参数量只有 1/30 的情况下,取得不逊于最先进 BERT 系列模型的性能。文 | G

    AIBigbull2050 自然语言 443 2020-03-17 20:46
  • 【BERT】你保存的BERT模型为什么那么大?

    前一段时间有个朋友问我这样一个问题:google官网给的bert-base模型的ckpt文件大小只有400M,为什么我进行微调-训练之后,保存的ckpt模型就是1.19G呢?我当时的回答是:因为google给的bert-base模型的ckpt文件仅包含bert的transform每一层的参数,不包含其他参数。而你自己在微调训练过程中有增加了其他的一些参数,所以会比较大。现在想一想,感觉自己的回答也

    AIBigbull2050 自然语言 586 2020-03-13 13:58
  • 「NLP」一文汇总自然语言处理主要研究方向

    所谓自然语言处理,即NLP,就是通过用计算机来处理人类的语言、文字,从而可以代替人类做一些文书类的工作,例如咨询、售后、海量数据处理以及公文阅读与处理等。基于此,NLP领域延伸处理种类繁多的任务,这里我总结了文本向量化、序列标注任务、文本分类、信息提取、以及复杂应用场景五大类NLP任务,做一个介绍。作者&编辑 | 小Dream哥1 文本向量化文本的向量化可谓是NLP进入深度学习时代的标志。

    AIBigbull2050 自然语言 490 2020-03-13 09:14
点击加载更多下一页

成为大咖

联系我们
itpub
help@itpub.net
17319047854
扫描二维码联系客服
关于 广告服务 使用条款
京ICP备16024965号
经营性网站备案信息
网络110报警服务
中国互联网举报中心
北京互联网违法和不良信息举报中心