01
dial-bert 论文“Large-scale Pretraining for Visual Dialog”的Pytorch实现
视觉对话的先前工作着重于在VisDial数据集上独立地训练深层神经模型,这虽然取得了长足进步,但却是有限且浪费的。
在这项工作中,根据语言的表示学习的最新趋势,我们介绍了一种在转移到可视对话框之前,利用相关大规模视觉语言数据集的预训练的方法。具体来说,我们将最近提出的ViLBERT模型改编为多轮次视觉接地的对话序列。
我们的模型在概念字幕和视觉问题回答数据集上进行了预训练,并在VisDial上进行了VisDial特定的输入表示,掩码语言建模和下一句预测目标(如BERT)进行了微调。
我们最好的单一模型在Visual Dialog上达到了最先进的水平,在NDCG和MRR上绝对优于之前已发表的工作(包括模型集合)超过1%。
该存储库包含用于在有或没有对密集注释进行微调的情况下再现结果的代码。所有结果都在Visual Dialog数据集的v1.0上。
我们提供预训练的模型权重和关联的配置,以运行推理或从头开始训练这些模型。
论文地址:
02
SparkTorch Apache Spark框架上的Pytorch模型的训练和使用
这是Pytorch在Apache Spark上的实现。该库的目的是提供一个简单易懂的界面,用于在Spark上分发Pytorch模型的训练。借助SparkTorch,您可以轻松地将深度学习模型与ML Spark Pipeline集成。
在引擎盖下,SparkTorch通过减少树和参数服务器提供了两种分布式培训方法。通过api,用户可以指定训练的样式,无论是同步分发还是异步。
与SparkFlow一样,SparkTorch的主要目标是与Spark的ML Pipelines无缝协作。该库提供了三个核心组件:
大型数据集的数据并行分布式训练。SparkTorch提供了分布式同步和异步训练方法。这对于训练无法放入单个计算机的非常大的数据集很有用。
与Spark的ML库完全集成。这样可以确保您可以使用经过训练的模型来保存和加载管道。
推理。借助SparkTorch,您可以加载现有的训练模型并并行处理数十亿条记录。
除了这些功能之外,SparkTorch还可以利用barrier执行功能,确保所有执行者在训练期间同时运行(这是同步培训方法所必需的)。
项目地址:
03
NLP 最佳实践
近年来,自然语言处理(NLP)的质量和可用性得到了快速增长,这有助于推动业务对人工智能(AI)解决方案的采用。在过去的几年中,研究人员一直在将新的深度学习方法应用于NLP。
数据科学家开始从传统方法过渡到最新技术(SOTA)深度神经网络(DNN)算法,该算法使用在大型文本语料库上预先训练的语言模型。
该存储库包含构建NLP系统的示例和最佳实践,以Jupyter笔记本和实用程序功能的形式提供。
该知识库的重点是研究涉及文本和语言问题的研究人员和从业人员中流行的最新方法和常见方案。
该存储库的目标是构建一套全面的工具和示例,以利用NLP算法,神经体系结构和分布式机器学习系统的最新进展。
内容基于我们过去和将来与客户的互动以及与合作伙伴,研究人员和开源社区的合作。
我们希望这些工具通过简化从定义业务问题到解决方案开发的数量级的经验,可以大大缩短“上市时间”。另外,示例笔记本将作为指南,并以多种语言展示工具的最佳实践和用法。
在迁移学习,Transformer和深度架构的时代,我们相信预训练的模型为许多实际问题提供了统一的解决方案,并允许轻松地处理不同的任务和语言。
因此,我们将优先考虑此类模型,因为它们可以在GLUE和SQuAD排行榜等多个NLP基准上获得最新的结果。该模型可用于从简单文本分类到复杂的智能聊天机器人的许多应用中。
以下认知服务提供了解决常见NLP任务的简单解决方案:
文本分析是一组经过预训练的REST API,可用于情感分析,关键词提取,语言检测和命名实体检测等等。这些API开箱即用,对机器学习的要求最少,但是自定义功能有限。
QnA Maker是基于云的API服务,可让您在现有数据上创建对话式问答层。通过从半结构化内容(包括常见问题解答,手册和文档)中提取问题和答案,可以使用它来构建知识库。
语言理解是一种SaaS服务,用于在给定用户提供的培训集的情况下将模型作为REST API进行培训和部署。您可以通过执行提供示例话语并将其标记的简单步骤来进行意图分类以及命名实体提取。它支持主动学习,因此您的模型始终可以不断学习和改进。
参考链接:
04
AugMix 一种提高鲁棒性和不确定性的简单数据处理方法
我们建议使用AugMix,这是一种混合增强图像并强制执行增强图像的一致嵌入的数据处理技术,从而提高了鲁棒性并改善了不确定性校准。
与随机裁剪或CutOut一样,AugMix不需要调整即可正常工作,因此可以实现即插即用的数据扩充。AugMix在具有挑战性的图像分类基准上显着提高了鲁棒性和不确定性度量,在某些情况下,将先前方法与最佳性能之间的差距缩小了一半以上。
借助AugMix,我们可以在ImageNet-C,ImageNet-P上获得最先进的技术,并在火车和测试分布不匹配时获得不确定性估计。
该目录在NumPy中包含了在Aug_ix中使用Enhance_and_mix.py的增强方法的参考实现。
完整的AugMix方法还添加了Jensen-Shanon发散度一致性损失,以在输入图像的两个不同增强部分与干净图像本身之间实施一致的预测。
我们还在cifar.py和imagenet.py中分别在CIFAR-10 / 100和ImageNet上包括AugMix的PyTorch重新实现,它们都支持在CIFAR-10 / 100-C和ImageNet-C上的培训和评估。
环境需求:
numpy>=1.15.0
Pillow>=6.1.0
torch==1.2.0
torchvision==0.2.2
参考链接:
【今日福利】
1元秒杀七月在线【自动聊天机器人项目班】课程,BAT技术主管授课,8节大课带你从零开始实战自动聊天机器人项目,扫码抢占名额!
今日正式开课,还剩最后20个名额!
课程详情如下:
参与方式:
扫描上方海报二维码