50net永乐高
通知公告
位置: 网站首页 > 通知公告 > 正文

【实验班(四期)课题介绍】人工智能创新工程坊

发布时间:2020-08-20 11:24:42来源: 点击:


【注】以下题目都有导师和研究生带领一起完成

一、课题名称: BERT的中文文本句向量生成及相似度计算

项目介绍:

BERT模型是近期Google重磅推出的模型,在NLP领域的多项应用上取得了很好的效果。BERT是通过自注意力机制建模,可以直接获取文本的全局信息,同时由于其没有遗忘门机制所有的词的信息都得以保留,因此BERT能够更好地表达句子的完整语义信息,同时也能从全局的词特征中上直接寻找词与词之间的相关性特征。鉴于BERT模型的这些优点及其在NLP领域取得的效果,本项目针对中文文本处理时需要依托文本上下文信息才能更好地提取文本的语义信息这一需求,研究基于BERT模型抽取文本句子语义表示向量的构建方法,即中文文本句向量的生成方法,进一步基于文本的句向量计算文本的相似度,为文本分类、文本情感分析、智能问答等NLP应用提供技术支撑。

研究内容:

1、基于大规模数据爬虫技术的中文文本语料库的构建;

2、基于中文文本语料库的BERT中文模型的构建;

3、基于BERT模型抽取句子语义表示向量,生成中文文本句向量;

4、基于BERT模型与中文文本句向量计算文本相似度;

预备基础:

具备自然语言处理中相关基础技术知识,包括分词技术,中文依存句法分析技术,命名实体识别技术,词向量生成技术等。

 

二、课题名称:语言模型的新闻文本分类和知识图谱构建

项目介绍:

语言模型是针对一段文本的概率分布进行估计,即计算该文本存在的可能性。语言模型的使用对信息检索,机器翻译,语音识别等自然语言处理(NLP)任务有着重要的作用。语言模型分为统计语言模型和神经网络语言模型,本项目使用基于深度学习方法构建的大规模预训练语言模型进行新闻文本分类,预测不同新闻文本类型。预训练是指基于某一NLP任务进行训练得到一套模型参数,利用这套参数对模型进行初始化,再进行训练。当前主流预训练语言模型包括:ELMoBERTGPT等。基于事件提取算法利用上下文知识提取新闻文本中包含的事件信息、情感态度关键词等,构建以新闻事件为实体,不同事件之间关联关系为实体连接的知识图谱,知识图谱的构建为新闻文本分类、主题聚类、事件分析等NLP应用提供技术支撑。

研究内容:

1、基于大规模数据爬虫技术的新闻文本库构建;

2、基于预训练语言模型的新闻文本分类;

3、基于RNN/LSTM的新闻事件抽取与情感分析;

4、基于非结构化数据构建新闻事件知识图谱;

5、利用Vue前端实现知识图谱的可视化效果。

预备基础:

已具备初步规模的新闻文本语料库,具备自然语言处理中相关技术知识,包括基础技术中的词法分析、句法分析、语义分析和语用分析技术;应用技术中的自动问答、机器翻译、文本摘要等。

 

三、课题名称:K8S部署弹性计算

项目介绍:

Kubernetes(常简称为K8S)是用于自动部署、扩展和管理容器化(containerized)应用程序的开源系统。它旨在提供“跨主机集群的自动部署、扩展以及运行应用程序容器的平台”。它支持一系列容器工具, 包括Docker等。我们可以将Docker看成Kubernetes内部使用的低级别组件。Docker这个新兴的容器化技术当前应用越来越广,并且其从单机走向集群也称为必然,而云计算的蓬勃发展正在加速这一进程。kubernetes作为当前普遍被业界广泛认可和看好的docker分布式系统解决方案,前景非常可观。

弹性计算服务(ECS)为用户提供一个根据需求动态运行的虚拟服务器的环境。对于ECS提供的虚拟服务器,用户可以像使用一台物理机器一样进行各种操作。ECS允许用户根据自己的需要,租用多台虚拟服务器来完成各种任务。在运行的过程中,用户也可以根据计算资源的需要动态增加或减少虚拟服务器的数量。对于用户来说,弹性计算服务解决了业务的周期性变化带来的资源利用率不高和IT成本高的问题。同时,弹性计算服务还可以减少IT采购的周期,提供数据的可靠存储和可扩展的能力,并可以有效地减少网络安全的威胁。

研究内容:

1,    利用K8S的 自动弹性伸缩(AutoScaling)功能实现基于资源使用情况自动弹性缩容和扩容工作负载;

2,    利用Docker容器和K8s实现CPU和GPU虚拟化弹性计算;

3,    多CPU和GPU主机的弹性平台安装;树莓派集群ECS实现。

4,    实现对象存储和分级认证。

预备基础:

 理解Kubernetes集群的相关概念和集群的构建方法

 理解弹性伸缩

 理解并配置K8S提供的资源采集指标,来指导扩容或缩容

 

四、课题名称:嵌入式系统的手势与姿势识别与跟踪

项目介绍:

       计算机视觉是深度学习最早实现突破性成就的领域,如今深度学习不仅突破了图像分类的技术瓶颈,也突破了图像中物体识别与动作识别的技术瓶颈。手势与姿势识别作为人机交互中的重要组成部分,自然也成为了计算机视觉中热门的研究方向。手势与姿势识别可以在很多实际场景中得到应用。手势与姿势识别存在的普遍问题是背景对于识别结果影响太大,因此需要深度学习的方法进行识别。基于深度学习的手势与姿势识别通过对图像中的特征点进行检测与定位,通过特征点与特征点拓展得到的骨架框图可以分辨出手势与姿势所属的种类。本项目图像识别部分基于深度学习技术,通过训练搭建的神经网络模型来检测出手势与姿势的关键点,并对图像进行分割与匹配分类。此外,该项目针对人机交互场景的需求,将运行设备分为两种:1.中低端的嵌入式设备,计算处理可以在云端实现;2.高端的手机移动设备,适用于使用私人移动设备的场景。

研究内容:

1、学习研究国内外手势与姿势识别与跟踪技术的现状,了解目前比较主流的手势与姿势识别的神经网络结构,特别是github开源项目;研究不同类型的嵌入式设备的运算能力,根据程序算法计算量的需求评估与选择合适计算力的嵌入式设备。

2、选择合适的手势与姿势识别网络在现有的数据集中进行训练,训练出初步的网络模型;将初步的网络模型移植入嵌入式设备,评估硬件设备的运算情况。

3、自己选择不同手势与姿势场景,拍摄并进行标注,形成数据集(分成训练集和测试集),将数据集按照项目中分类数量与形式的需求进行进一步分类;

4、训练集用来对用现有数据集训练好的模型再次训练,进行网络模型的调整;用测试集调整后的模型进行测试,检测出关键点,并通过拓展得到手势或Pose框架,结合之前按照项目需求进一步分类模板进行匹配

5、得到最终的网络模型后将其部署在云端或移植入嵌入式设备端运行,进行进一步的测试与调整,同时根据程序运行情况对嵌入式设备的选型进行最后的调整。

6、可以成果具备完整的产品演示闭环。

预备基础:

熟悉Python编程,了解深度学习相关概念,了解python神经网络相关库和环境搭建,熟悉基础的深度学习网络算法。

    熟悉嵌入式ARM架构,了解嵌入式端Linux的软件与指令使用,了解神经网络模型的移植。

 

五、AI容器云相关(4个子题目)

课题1 可扩展的支持动态加载的H5协同数据标注工具

大量高质量的人工标注数据可以有效提升深度学习模型训练效果,而一款支持前端动态加载、功能可灵活扩展、可多用户协同标注检验的、并可以与训练机制紧密结合的数据标注工具是获取大量高质量人工标注数据的必要条件。该工具应支持的数据类型有:表格、图片、文本、语音、视频等并可以按需扩展;该工具支持的标注任务根据特定数据类型可以有标签、目标标注、实体关系标注、事件标注、关键帧标签、时间轴序列标签等;该工具标注数据支持版本管理、用户权限审核、以及与容器云模型训练系统集成。

课题2 基于kitab的深度学习模型优化机制

深度学习模型的优化在应用部署场景中非常重要,可以有效的减少模型体积,提升模型推理速度,降低对加载计算设备和存储的需求。kitab基于k8s提供了模型超参数自动调优和神经网络架构搜索功能,并支持目前主流深度学习框架如:TensorFlow, Apache MXNet, PyTorch, XGBoost等,是容器云模型训练和部署流程需要整合的优先考虑对象,前期功能预研非常必要。

课题3 面向arm架构的深度学习模型自动量化机制

深度学习模型

课题4 基于docker容器的自适应深度学习模型推理服务

主流深度学习框架包括Tensorflow,PyTorch,Caffee,MxNet等,由于框架以及版本的多样性,训练生成的模型在调用时仍需要人工便携推理接口代码。根据模型使用场景、输入数据类型、输出数据类型、深度模型网络参数等因子,构建推理代码自适应构建模板,并可以自动构建容器和容器执行指令,可以极大的简化模型部署复杂度,提升深度学习模型应用落地效率。

课题5 深度学习模型推理服务大数据日志分析平台

其他应用在调用已部署深度学习模型推理接口时,可信度较低样本应被有效收集整理,提示开发者进行加强数据标注,解以重新训练模型实现更好推理效果。正常服务情况接口调用频度会远高于原始数据量级,因此需要结合大数据平台,收集推理接口调用日志和输入参数,并可以根据配置自动批量分析出需再次标注样本,生成补充数据集提供给开发者进行后续处理流程,更有效的实现模型训练优化闭环。

 

六、课题名称:RSIC-V系统架构研究及基于RISC-V内核的SoC设计

 

项目介绍:

RISC-V(读作“RISC-FIVE”)是基于精简指令集计算(RISC)原理建立的开放指令集架构(ISA),V表示为第五代RISC(精简指令集计算机),表示此前已经四代RISC处理器原型芯片。每一代RISC处理器都是在同一人带领下完成,那就是加州大学伯克利分校的David A. Patterson教授。

RISC-V架构不仅短小精悍,而且其不同的部分还能以模块化的方式组织在一起,从而试图通过一套统一的架构满足各种不同的应用场景。用户能够灵活选择不同的模块组合,来实现自己定制化设备的需要,比如针对于小面积低功耗嵌入式场景,用户可以选择RV32IC组合的指令集,仅使用Machine Mode(机器模式);而高性能应用操作系统场景则可以选择譬如RV32IMFDC的指令集,使用Machine Mode(机器模式)与User Mode(用户模式)两种模式。

RISC-V社区已经提供了完整的工具链,并且RISC-V基金会持续维护该工具链。当前RISC-V的支持已经合并到主要的工具中,比如编译工具链gcc, 仿真工具qemu等。如果用RISC-V来设计芯片,芯片设计公司不再担心工具链问题,只需专注于芯片设计。

 

研究内容:

1、可扩展的RISC-V指令集;

2、基于RISC-V架构的芯片系统架构(基于RISC-V架构的面向AI应用的芯片系统架构);

基于RISC-V的操作系统移植研究(建立支持RISC-V开发的工具环境);

3、开发设计基于RISC-V的SoC芯片代码及仿真环境;

 

预备基础:

具备计算机系统架构与工作原理的相关基础技术知识,熟练掌握Verilog/VHDL硬件描述语言;掌握编译工具链gcc/Eclipse

 

责任编辑:赵岩松

关闭