Vitis AI平台(发布于2019年12月4日)
地址:https://github.com/Xilinx/Vitis-AI
    自适应和智能计算的全球领先企业赛灵思公司(Xilinx)发布的人工智能推断开发软件平台Vitis AI可以为从边缘到云端的AI应用提供统一的开发平台,包括完备的优化、量化、编译和分析工具,以及高层级的基于C++,Python的统一编程接口,同时还提供了丰富的面向性能优化的AI模型和加速库以及相应的示例设计,提升AI推断的开发效率。
    为了满足AI应用多样性的趋势和适应AI创新的速度,Vitis AI可提供多种深度学习处理单元(DPU),实现基于AI模型和任务的硬件自适应,而无需重新流片;Vitis AI支持Tensorflow和Caffe等业界流形框架的快速部署,从量化、编译到硬件集成,仅需数分钟时间。
    Vitis AI与Vitis统一软件平台相结合,利用其强大的异构系统集成和加速能力,Vitis AI可帮助开发者在Xilinx嵌入式Soc平台和Alveo平台实现端到端的全应用加速,实现数十倍的性能提升。
    Vitis包括的模型涵盖了多种应用,比如ADAS/AD(高级驾驶辅助系统/自动驾驶)、视频监控、机器人和数据中心等。

AIIA开源开放推进组 2020-01-22 14:52:51 0

NEZHA&TinyBERT模型(发布于2019年12月3日)
地址:https://github.com/huawei-noah/Pretrained-Language-Model
    华为诺亚方舟实验室NLP团队开源的两个重要预训练语言模型——哪吒和TinyBERT,性能更好、使用更方便。
    NEZHA(NEural contextualiZed representation for Chinese|Anguage understanding),是华为诺亚方舟实验室紫艳德预训练语言模型,在一些NLP任务上取得了SOTA的表现。这一模型基于BERT,可以在普通GPU集群上进行训练,同时融合了英伟达和谷歌代码的早期版本。NEZHA中文语料库除了谷歌BERT使用的Wikipedia还包括Baike和News,英文采用的与BERT一样是Wikipedia和BookCorpus。NEHZA还采用了英伟达的混合精度训练方法。
    TinyBERT的使用方法和哪吒项目有所不同,它分为三个步骤:蒸馏、数据增强以及特定任务蒸馏。第一阶段的蒸馏,使用原版的BERT-base作为教师模型,通过Transformer蒸馏方法,获得一个泛化的TinyBERT模型;数据增强阶段结合BERT和Glove的方法进行词级别的替换,以此增强数据,通过学习更多任务相关的样本,提升学习模型的泛化能力;特定任务的蒸馏主要对Transformer先进行中间层蒸馏再进行预测层蒸馏,以提升在特定任务上的性能。

AIIA开源开放推进组 2020-01-22 14:56:20 0

BodyPix 2.0人体图像分割工具(发布于2019年11月19日)
地址:https://github.com/tensorflow/tfjs-models/tree/master/body-pix
    Google官方推出的使用TensorFlow.js的人体图像分割工具BodyPix 2.0,可以支持多人分割,并且提高了准确率。
    BodyPix能将图像分割为属于人和不属于人的像素,属于人的部分可以进一步分类为二十四个身体部位之一。BodyPix可以直接在浏览器运行,开发者只需加入几行代码,即可与电脑或手机的摄像头配合使用。
    在使用默认设置的情况下,BodyPix可以在15寸MacBook Pro上以25 fps的速度估计,并渲染人和身体部位的分割,而在iPhone X上,BodyPix能以21 fps的速度进行估计。
    本次2.0的版本主要更新有:对多人图像的支持、增加基于ResNet-50的模型、新的API、权重量化以及对不同尺寸图像的支持。

AIIA开源开放推进组 2020-01-22 14:58:39 0

TANet: Robust 3D Object Detection from Point Clouds with Triple Attention(即将开源)
地址:https://github.com/happinesslz/TANet
    华中科技大学和中科院自动化所联合推出的新算法TANet,探讨了点云3D目标检测的稳健性,这在现有方法中很少提及。该研究发现两个重要现象:1)难以检测的对象(如行人)的检测准确率不够好;2)添加额外的噪声点后,现有方法的性能迅速下降。
    针对这些问题提出的TANet,它主要包含了三元注意力(Triple Attention, TA)模块和Coarse-to-Fine Regression(CFR)模块。TA模块联合考虑通道注意力、点注意力和体素注意力,从而增强目标的关键信息,同时抑制不稳定的点。此外,新型堆叠TA模块还可以进一步利用多级特征注意力。而CRF模块可在不过度消耗计算成本的情况下提升定位准确率。
    在KITTI数据集验证集上的实验结果表明,在难度较大的噪音环境中(即在每个对象周围添加额外的随机噪声点),TANet的性能远远超过当前最优方法。此外,在KITTI基准数据集上执行3D目标检测任务后发现,TANet仅使用点云作为输入,即在“行人”(Pedestrian)类别检测中取得SOTA的成绩,其运行速度约为每秒29帧。

AIIA开源开放推进组 2020-01-22 23:32:05 0

柏拉图Plato(发布于2019年11月14日)
地址:https://github.com/tencent/plato
    腾讯开源的高性能图计算框架Plato,据介绍,Plato可满足十亿级节点的超大规模图计算需求,将算法计算时间从“天”级缩短到“分钟”级,性能全面领先于其他主流分布式图计算框架,并且打破了原本动辄需要数百台服务器的资源瓶颈。
    图计算的“图”并不是指普通的图像和照片,而是用于表示对象之间关联关系的一种抽象数据结构。图计算可以将不同来源、不同类型的数据融合到同一个图里进行分析,得到原本独立分析难以发现的结果,因此成为社会网络、推荐系统、网络安全、文本检索和生物医疗等领域至关重要的数据分析和挖掘工具。
    综合来讲,Plato在计算性能方面机器强悍,主要有以下贡献:
(1) Plato能高效地支撑腾讯超大规模社交网络图数据的各类计算,且性能达到了学术界和工业界的顶尖水平,比Spark GraphX高出1-2个数量级;
(2) Plato内存消耗比Spark GraphX减少了1-2个数量级,意味着只需中小规模的集群(10台服务器左右)即可完成腾讯数据量级的超大规模图计算;
(3) Plato隶属腾讯图计算TGraph,起源于大规模社交网络图数据,但也可以完美适配其他类型的图数据。
    Palto主要提供两大核心能力,腾讯数量级下的离线图计算和腾讯数据量级下的图表示学习。同时,Plato可运行在通用的X86集群,如Kubernetes集群、Yarn集群等。在文件系统层面,Plato提供了多种接口支持主流的文件系统,如HDFS、Ceph等,能为开发者提供更友好的运行环境。

AIIA开源开放推进组 2020-01-22 15:00:19 0

Auptimizer(发布于2019年11月9日之前)
地址:https://github.com/LGE-ARC-AdvancedAI/auptimizer
    LG高级人工智能部门开发的Auptimizer是一个开源的超参数优化框架,旨在帮助人工智能模型的调整和记账。
    Auptimizer简化了配置各种大量模型的过程,并具有可重现性。它与所有超参数算法一样,能够在为超参数赋值之前初始化搜索空间和配置,然后训练目标模型并更新结果。最终重复命题、训练和更新阶段,直到确定最优值。
    Auptimizer采用基于梯度的架构搜索,其中基于AI模型的控制器能够生成“子模型”字符串,这些“子模型”的架构由字符串变量指定。改控制器利用被训练的子模型的精度作为一种信号,逐步的为具有更高精度的结构分配更高的概率,从而提高其搜索能力。
    Auptimizer只需要几行代码,就可以帮助用户逐步完成与实验相关的配置设置,并且支持在不同的超参数算法和计算资源之间进行切换,不需要用户重写训练脚本。此外,它的设计可以平滑扩展到其他算法和资源,不需要进行过大的修改。
    一旦定义并初始化了实验,Auptimizer就会不断地检查可用资源和超参数数据,并运行作业来确定最佳模型。工作负载完成后,它会启动一个异步记录和保存结果的函数,自动执行映射,并将超参数值保存到文件中,以便可以将这些数据恢复到特定作业中使用。
    用户可以指定实验配置中使用的资源,包括:处理器、图形芯片等,它与现有的资源管理工具兼容,并能够在数据库中跟踪可用的资源和作业。另外,它还有一个能可视化历史结果的基本工具。
    未来的Auptimizer将支持边缘设备的端到端模型构建,包括模型压缩和神经结构搜索。Auptimizer的可扩展性,能够帮助用户在所有可用的计算资源下高效地训练模型,这使得从业者能够相对轻松地,用高级算法快速探索自己的想法。

AIIA开源开放推进组 2020-01-22 15:02:20 0

热门开源项目