项目介绍
北京大学-腾讯协同创新实验室依托北京大学信息科学技术学院,主要从事人工智能、大数据等以及其他新兴科研领域的前沿探索和人才培养。 为了促进国内相关领域的科学研究,加快科技领军人才培养和应用成果转化,联合实验室特设立创新科研基金。
申报条件
1、面向北京大学校内开放,申报者须为相关院系正式教学科研人员,具备独立开展研究工作的能力。
2、申报者须带领学生共同开展项目研究,并推荐学生(大三以上)申报腾讯犀牛鸟精英人才培养计划(http://ur.tencent.com/article/233)。
项目流程
符合条件的申报者,请根据课题方向(附件一)填写《申报表》(附件二),按照以下时间节点提交至秦征(zhengqin@tencent.com):
——2018年04月02日 项目发布,申请开始;
——2018年05月01日 申请截止,启动评审;
——2018年05月15日 评审截止,发布结果。
项目审批
北大和腾讯将成立联合项目专家组,决定是否资助及资助强度。
资源资助
1、每项资助金额为5-10万元人民币,计划支持5~10项。
2、申报者所推荐参加腾讯犀牛鸟精英人才培养计划的学生,可直接进入评选第二轮。
3、受资助者将有机会安排腾讯科研访问。
知识产权
项目的知识产权来源于正式立项研究(包括研究的所有过程中)和完成的项目成果。受资助者在项目研究过程中形成的与项目相关的成果的著作权及专利等,包括但不限于论文、著作、源代码等,其知识产权权利归属作者、北京大学及腾讯公司三方共同所有,腾讯公司有权免费优先使用。
附件一:
北京大学-腾讯犀牛鸟创新科研基金课题方向
方向1:机器学习及其相关应用研究
课题1.1:用户行为时间序列分析及建模
利用各种机器学习算法(包括深度学习、图学习、强化学习等)和大规模计算集群对万亿级数据进行分析,探索有效的用户行为建模工具(如用户分割、内容推荐、异常检测、可视化等),以帮助提高用户体验和系统效率。
课题1.2:大规模分布式深度学习中的训练加速与结构学习
本课题围绕以下两项内容开展研究:1. 深度学习模型的压缩与加速:通过对深度学习模型的参数和/或梯度进行量化或者稀疏化,降低模型在存储和运行时的空间占用,加快模型在推断时的计算速度;2. 深度学习模型的结构学习:针对大规模数据场景调研更加有效的深度学习神经网络结构,并能够自动进行学习,降低深度学习的调研成本与提升模型的精度。
课题1.3:迁移学习及大规模图算法的并行加速
本课题围绕以下两项内容开展研究:1. 基于Aspect的推荐系统可以提高推荐的覆盖率和准确率。由于标注Aspect数据耗费巨大,所以希望提出迁移学习算法从已有的标注数据领域迁移知识到未标注数据领域,以提高搭建Aspect-based推荐系统的效率;2. 传统图论算法的并行化加速一直以来都是并行化算法研究的热点课题,例如MBE(Maximal Biclique Enumeration)问题等。就MBE问题而言,传统的解决方案主要采用基于DFS的串行算法。如何使用并行算法解决MBE至今依然是一个开放问题。
课题1.4:强化学习在物理世界中的核心算法和应用研究
近年来,强化学习已经在虚拟世界游戏、模拟等领域(Alpha Go,CMU Poker, OpenAI DOTA2)取得突破性进展,但是在现实物理世界中鲜有应用。如何打通虚拟世界和现实物理世界的桥梁,将在虚拟模拟器里训练得到的模型有效部署到现实世界中,或直接在现实世界中进行高效强化学习训练,并将相应核心算法落地到普通用户的生活场景中,是一项有挑战性的重要课题,其成果将有助于通用人工智能在现实世界中的落地。
课题1.5:强化学习在游戏AI中的核心算法研究
最近几年,强化学习在限定场景的游戏AI(如Atari,Vizdoom,Alpha Go, OpenAI Dota2)中已经取得突破性进展, 如何搭建通用的游戏AI平台,使其能在多个智能体参与的复杂策略游戏(如星际,王者荣耀)中对不完整的游戏场景进行准确估计和理解,与不同智能体进行协作,作出长远游戏策略规划,共同取得团队胜利,是一项有挑战性的重要课题,其成果将有助于推动强化学习在游戏AI中的进步。
课题1.6:面向信息安全的海量社交关系链计算
微信或者QQ的社交网络对用户的了解,一个重要的用户画像信息就是社交关系。以微信8亿活跃用户的社交关系为例,最完整的表达是8亿*8亿的邻接矩阵。但这在我们用来做分析或者机器学习任务时显然是非常不方便的,且计算成本非常高。Network Embedding是一种图特征的表达学习方法,将网络中的节点映射为向量空间的一个向量,通过将关系网络转换成低维空间的向量,来提升关系计算的效率。Network Embedding的几个代表性算法包括2014年的Deepwalk、2016年KDD文章Node2vec,以及2015年微软发表的LINE。但是开源的算法在实际应用过程存在性能问题和功能问题。本项目主要是研究高效的、满足业务应用需求的关系计算算法并实现。
课题1.7:基于深度神经网络的转化建模和转化率预估优化
互联网广告场景中,转化率预估已经成为影响广告投放效果的一个重要策略环节。由于不同广告主行业不同,各自对转化的定义也不同,转化类型可能包括注册账号、付费下载、下单购买等。在这种场景下,如何建模转化率预估问题是很有挑战的。我们希望有一个统一的建模,尽可能利用上所有的广告行为数据,同时避免不同类型的转化数据相互影响,对不同类型的转化都能良好地预估。
课题1.8:MOBA游戏中的AI研究
MOBA(Multiplayer Online Battle Arena)类游戏是近年来市场上最为火热的游戏类型,无论是《英雄联盟》、《王者荣耀》都有数以亿计的游戏用户,相关电竞比赛全球关注。MOBA类游戏吸引用户的主要点是在于其丰富多变的游戏角色、技能组合和战略战术配合,而这种实时、高自由度、复杂的游戏也给人工智能技术的研究提供了一个很好的环境。如何利用现有的人工智能技术,在MOBA类游戏中,实现正常的角色操作,以至于达到接近甚至超过人类玩家的水平,是一个非常有挑战的课题,也是本项目主要关注的问题。
课题1.9:面向自动发音评测及反馈的深度神经网络算法研究
自动发音评测是计算机辅助语言学习(CALL)的核心模块之一。传统的评测体系中的语音模型是基于语音识别建立,因而忽略了评测任务的特定需求,造成对不标准发音评测的困难。同时,传统的评测算法基于一些特定的声学和发音特征,这些特征的识别提取需要大量的训练和数据,造成实际应用的困难。本课题旨在探索构建面向发音评测的DNN算法,实现从语音到评测结果端到端的映射,提高评测结果与人工评测的相关性,进而实现发音的评估和指导性的反馈。
课题1.10:多模态样本的低维编码
样本的低维编码一直是机器学习领域关注的基本问题,也是很多实际应用急需的技术,如在NLP领域的词编码(Word Embedding)。在过去几十年里,基于贝叶斯推断的生成模型(Generative Model) 取得了很大的成功,其中生成模型用来描述样本从低维到观测空间的映射过程。近些年,在学习观测样本的概率分布方面,生成对抗网络(Generative Adversarial Network, GAN)受到了极大关注。不过在处理多模态(multi modes)样本时,GAN常常会遇到难以训练的状况。在本课题中,我们将探讨基于GAN的多模态样本的低维编码问题。
方向2:量子计算
课题2.1:量子机器学习算法
在解决某些大规模机器学习任务上,量子算法展现出了有指数级的运算优势。了解在什么样的任务和条件下量子计算机有优势,优势有多大,是量子计算最重要的研究领域之一。本课题将通过研究已知的量子算法,开发新的高效量子机器学习算法。
方向3:语音技术
课题3.1:结合预测网络的端到端自适应语音识别系统
目前的端到端语音识别系统缺少很好的自适应能力和鲁棒性,只有在训练数据很大的情况下性能才能与Hybrid系统匹敌,因而对于长尾的情况识别率不高。在这个项目里,我们结合语音和语言的预测来自动寻找说话人和环境信息并用这些信息快速的对端到端系统进行自适应。
课题3.2:针对鸡尾酒会问题的鲁棒多说话人语音识别系统
语音识别虽然在某些场景下已经达到了不错的性能,但是在真实复杂的噪声场景下,系统性能急剧下降,离系统实用还有很大差距。这其中,处理那些多人混叠的语音又格外具有挑战性。因而本课题期望利用一些高级的深度学习方法,比如PIT排列不变性训练、DPCL深度嵌入分离表示等,并结合多麦克风处理技术和说话人快速自适应方法,来提升系统在处理多人混叠语音上的识别性能。
课题3.3:低资源下的复杂社交场景语音信息安全重点技术
本研发全面面向互联网复杂信道场景,在跨语言多语种环境下,UGC的关键词识别,语音可能是一段低资源的外语,也可能是复杂信道场景下采集的远讲,也有可能是最近非常火的直播。对这类复杂社交场景,低资源下的语音进行关键词唤醒和关键词检索技术的研究,主要表现在:1. 低资源跨语种的神经网络声学模型的适配方法:有效利用现有的使用充足语言数据训练的神经网络声学模型,在只具备有限目标语言数据的条件下,基于各种的模型适配相关技术,训练得到性能与现有模型接近的目标语言的神经网络声学模型。2. 神经网络计算性能优化:一个方向是对庞大的网络参数集进行不同角度的量化或者是子空间聚类,从而压缩参数的表示精度或是表示数目,实现计算加速的目的。希望能结合语音关键词领域进行n-bit量化神经网络的相关研究与实现。
课题3.4:语音与音乐处理技术
基于神经网络进行单通道语音增强的处理,着力于解决鸡尾酒会等用传统信号处理难以解决的单通道语音增强问题,智能地对歌声进行修复,将本来不在节奏或者跑调的歌声通过对声音的各语音特征的调整;语音转换相关技术的研究,通过语音处理改变一个人的语音个性特征,使之具有另一个人的语音特征,但同时保持原有的语义信息不变。
方向4:自然语言处理
课题4.1: 基于语义分析和知识推理的深度文本理解技术及其应用
研究和探索基于语义分析和知识推理的深度文本理解技术以及其在开放域聊天等场景中的应用。
课题4.2:基于深度神经网络的文本生成技术及其应用
研究和探索基于深度神经网络的文本生成技术以及在自动对话生成,文本风格生成上的应用等。
课题4.3:自然语言处理在腾讯信息安全中的应用
如何表示文章和句子是目前自然语言处理(NLP)研究领域的一个热门话题。目前的主要方法是从大量的无标注语料中学习有用的特征以表示句子。很多研究者都尝试了非监督的句子表示方法,Google的Doc2Vec、SkipThought、Facebook的Sentence2vec和ICLR'18提出句子表示框架,然而其中有几个关键问题需要被解决:1. 怎样将词的语义嵌入到句子中;2. 如何有效的表示长文和中文文章;3. 怎样定义目标函数将非监督问题转化成自我监督问题进行学习。目前平台上累积了海量丰富的各类文章,长短不一并且分布在不同的领域,如何有效的训练文章表示模型并利用迁移学习将已经学习到的信息用在之后的NLP任务上是这个项目的主要研究方向。
课题4.4:基于可微分神经计算机的机器翻译
相对于传统的CNN和RNN网络,可微分神经计算机(DNC)作为一个通用框架有更强的记忆和泛化能力,但是目前依然存在一些问题制约了其实际应用:1. 复杂的网络结构导致了优化很难,参数十分敏感。2. 一些寻址操作导致模型并行程度不高,很难有效利用GPU加速。本课题针对上面两个问题,优化DNC网络,构建基于DNC的新一代神经网络机器翻译模型(NMT)。
课题4.5:面向NMT的多目标函数优化:翻译和译文质量评价
神经网络机器翻译(NMT)是AI和NLP的重要研究热点。现有的NMT使用最大似然估计作为优化目标,并不对译文质量进行量化评估。本课题旨在探索改进NMT优化策略的方法,通过改进模型结构和调整优化目标等,实现最大似然估计和译文评价指标的多目标优化,旨在提高翻译质量的同时,对译文的可用性给出评价。
课题4.6:阅读理解与问答
对给定的问题和参考信息段落提供答案。包括对问题的理解、参考信息的理解、答案的抽取等自然语言处理技术。
课题4.7:增强学习在自然语言处理中的应用
依靠真实的产品场景和数据,探索增强学习在自然语言处理中的应用,包括序列生成,多轮对话与问答等技术方向。
课题4.8:大规模知识图谱的构建与在问答系统中的应用
构建大规模的领域知识图谱,重点进行知识获取、知识表达、和基于知识的自动问答的研究。
课题4.9:基于生成模型的对话机器人
研究基于生成模型的Chatbot,包括多轮交互机制、领域知识融合、对话风格迁移与多样化、基于交互的在线学习等。
方向5:视觉及多媒体计算
课题5.1:人脸检测/识别关键技术研究
人脸是最重要的视觉信息之一,自动人脸检测与识别研究向来是人工智能和计算机视觉领域的一个热点和难点问题,在工业界和学术界都受到广泛的重视。本课题面向人脸技术在金融、移动互联网、视频监控等相关领域的重大需求,结合计算机视觉技术前沿,以深度学习为主要技术手段,重点突破人脸识别,人脸活体检测, 3D人脸重建与识别等核心技术问题。
课题5.2:图像视频编辑技术研究
本项目涉及到图像的处理,编辑,生成等研究问题。研究图像/视频底层视觉的研究问题。探索GAN,Capsule等模型在图像/视频上的新的研究任务。
课题5.3:深度的视频理解技术研究
视频理解不仅需要学习单帧图像的表示,更要建模时间域的视频帧之间的相关性。视频理解的课题包括有视频分类(Video Classification),运动识别(Action Recognition), action proposal, 运动定位(Action Localization), 视频描述生成(Video Captioning)等。
课题5.4:增强现实中的计算机视觉技术研究
增强现实涉及到的计算机视觉技术包括基于图像/视频的SLAM技术及三维场景理解等领域。本课题可以重点在视觉SLAM、三维重建、场景解析等方向进行研究。
课题5.5:计算机视觉技术在机器人上的研究
探索计算机视觉技术在机器人上的应用。视觉在机器人上的典型研究领域包括learning to grasp,机器人的导航,learning to run等。
课题5.6:深度学习技术在广告图片中的研究及应用
广告图片中的多模态信息(包括文本信息、物体信息、LOGO信息等)对于加深广告创意、用户偏好的理解,以及提升广告推荐效果都有积极意义。本课题主要研究深度学习技术在广告图片多模态信息提取中的算法以及应用落地,包括文字检测与识别(OCR)、物体检测、LOGO识别、图片基础属性分析(清晰度、相似度)、点击率预估等方面。
课题5.7:基于深度学习的图文多模态相关性研究
主要从事基于深度学习的图像识别技术及联合NLP基础的多模态研究,具体内容主要包括分析文章主题模型,根据插图生成关键词内容,并采用主题模型与图像内容进行分析,结合当前的最新深度学习的技术手段,重点突破文章标题及内容主题与插图的相关性研究。
课题5.8:基于深度学习的图片内容理解和情绪化检索
一般的图片检索引擎旨在匹配图片内容和用户检索的物品或人物条目。然而,针对特定场景,图片不仅需要反映物品内容的匹配,还要匹配用户需求的特定情感。在本课题,我们需要理解图片的内容并进行图的情感分析,以满足特定场景比如音乐背景和电台海报素材的图片情绪化检索。
课题5.9:物体检测与识别关键技术研究
物体检测与识别研究是人工智能和计算机视觉领域的热点、难点问题。在工业界和学术界都受到广泛的重视。本课题面向通用物体检测技术在金融、移动互联网、视频监控等相关领域的重大需求,结合计算机视觉技术前沿,以深度学习为主要技术手段,重点突破针对不同场景下的物体检测与识别这两大核心技术问题。
课题5.10:结合GAN网络的广告图片生成方式的研究
从互联网诞生开始,出现了banner广告、文本广告、图文广告、动态创意广告等多种不同的广告样式。探索新的广告生成方式有着巨大的现实意义,如微动广告能够吸引人更多的关注以及改善用户对于广告的体验,动态banner广告生成能够节省大量人力并且能够帮助建立个性化的广告体系(千人千面)。本课题将在广告内容理解的基础上,结合GAN网络,通过对素材、模版、文本、风格及字体等的理解及动态组合,动态生成更多的广告图片,再通过动态挑选(ranking问题),生成最适合展示的广告图片。
课题5.11:人脸视觉计算
人脸是计算机视觉、计算机图形学研究的重要对象之一,在诸多视觉任务中扮演了重要的角色。根据权威图像网站统计,人脸图片占了日常拍摄照片的六成以上。无论是to C场景下的人脸检索、活体鉴别、美颜美妆,还是to B场景下的安防监控、人机交互,人脸视觉计算都有重要的研究和实用价值。本课题依托于腾讯平台,以人脸图片作为重点研究对象,研究内容涵盖光照校准、人脸检测、三维重建、姿态估计、表观建模、属性编辑、图片美化等诸多计算机视觉、计算机图形学热点问题在人脸图片上的优化和改进。该课题不仅能接触到世界一流的研究问题,与行业最优秀的青年研究者共事,更有机会在人脸图片处理等领域做出突出贡献,研究成果被千万用户所使用。
课题5.12:视频场景中的人物角色跟踪与识别
视频场景中人物角色的跟踪与识别是视频分析和视频理解领域中的一个重要的研究方向,旨在理解视频中的人物的位置、动作和人物关系等。本课题涉及到人脸检测、跟踪、角色识别、语义理解等多项计算机视觉领域的关键技术研究,吸引了大量来自业界和学术界的关注。然而由于视频内容通常比较复杂,前景背景难以区分, 场景快速切换等问题的影响, 视频特别是开放场景视频中的人物角色跟踪与识别仍然是一个具有挑战性的问题。近年来,深度学习技术的发展为解决该问题提供了可行方案。本课题依托腾讯在数据、技术以及基础设施等方面的优势,旨在研究一种基于弱监督的深度学习方法,采用端到端的深度网络结构,实现对视频场景中人物角色的自动跟踪与识别,并将方法应用于腾讯的各项相关业务中。
课题5.13:医疗影像AI
人工智能与医学的跨界融合将给未来医疗领域带来颠覆性的巨大变化。腾讯在医疗影像AI上具有很强的技术储备,投入也很大,已经与100多家国内顶尖医院建立合作。公司在2017年11月入选科技部的首批“国家人工智能开放创新平台”名单,成为人工智能“国家队”。本课题将利用腾讯从合作医院获得的海量医学影像数据及标定,研究开发基于深度学习的疾病(包括癌症,心脑血管疾病,脑神经疾病)早筛算法,包括病灶定位、分割、良恶性分类等等。
课题5.14:多模态微信用户画像分析
通过对用户朋友圈发表的UGC图像、视频以及文本内容分析,构建多维度、层次化用户画像,进而辅助面向不同垂直领域的推荐系统。
课题5.15:微信生态下海量图像数据库及评测协议构建
构建符合微信场景的多标签、层次化海量图像数据库,标签要求同时体现具象、抽象视觉语义概念。
课题5.16:音视频质量评估
音频、视频、图像等质量评估,结合心理声学模型、人眼视觉系统等对音频、视频、图像进行客观质量分析的算法研究,包括全参考评估、部分参考评估以及无参考评估,旨在提供更易落地且更符合主观的客观评估标准。
课题5.17:目标识别与跟踪
该课题聚焦在基于深度学习的计算机视觉研究与应用领域,结合产品数据和用户行为打造个性化和智能化的产品体验。主要研究方向包括:手势识别,人体姿态识别;图像/视频编辑,生成和理解;目标检测,跟踪和识别等。
课题5.18:视频编码与处理技术
视频、图片处理与编码技术结合,旨在提供更好的视觉体验。包括:视频分类、视频效果自动美化、精彩视频自动编辑与摘要、物体跟踪与识别、AI视频压缩、视频超分辨率、AI流控、视频通讯技术等。
方向6:数据挖掘及相关应用研究
课题6.1:强化学习技术在广告推荐系统中的应用
研究如何将强化学习技术应用到广告推荐系统中,设计强化学习算法,探索并挖掘用户的潜在兴趣,结合点击率预估,学习最优的在线推荐策略,最大化推荐平台收益。
课题6.2:社交网络结构挖掘
研究微信社交网络的结构与属性特征,包括用户在社交网络中的特征、用户之间的相似性以及用户影响力等方面。技术领域涉及机器学习、复杂网络、网络表达学习(network representation learning)、用户影响力建模、影响力最大化(influence maximization)等。
课题6.3:海量用户婚恋育儿状态预测研究
基于海量数据的用户婚恋状态挖掘,属于典型的用户数据建模任务。任务涉及训练样本筛选、特征工程及模型优化等典型机器学习任务。如何利用腾讯系海量用户行为数据,挖掘适用于婚恋状态分类的特征组合及其表示,选择能高效处理百万级维度特征的模型算法,是本课题的主要挑战。
课题6.4:游戏视频内容的摘要生成
个性化内容推荐是现在互联网领域的热门应用,其中,视频类资讯内容非常受关注,对视频类资讯进行信息抽取和加工也一直是模式识别、人工智能的重要研究方向。在游戏视频领域,针对每天生成的海量不同类型的游戏视频,如何快速的抽取有价值信息,进行视频的标题、摘要生成、关键内容捕捉等应用,进而在进行个性化内容推荐时提高用户对视频类内容的点击意愿和粘性,是本课题主要关注的问题。
课题6.5:基于社交数据的页面质量分析
基于微信的社交传播数据构建新的PeopleRank、TrustRank等模型来对页面质量分析,进而改善搜索效果。
课题6.6:新闻热点挖掘和热度预测
新闻热点发现和热点追踪是推荐系统中的重要组成部分,我们需要在实时新闻数据中挖掘热点话题、突发事件,并希望在热点并未完全爆发时及时发现潜在的热点新闻,结合微信的社交传播数据,在事件的发展过程中及时追踪事件的最新进展,最终形成事件发展的关键时间序列。
课题6.7:公众号权威度研究
该课题将围绕两方面展开,一方面基于微信的社交数据和用户行为数据,挖掘出各领域精英人群,以精英人群的阅读行为来判定公众号的权威度(包括内容深度等方面);另一方面,通过NLP技术从文本方面判定文章的权威度。将高权威度内容推荐给精英人群阅读,提升“看一看”在精英人群中的口碑,引导公众号生态创作更多优质内容。
课题6.8:小程序用户体验研究
随着小程序生态的日渐繁荣,大量的小程序开发者涌入,但是开发出来的小程序质量良莠不齐。本课题将从小程序的代码和用户使用行为两方面入手,建立模型判定小程序的质量。具体而言,可基于行为序列建模判定用户使用流畅度、是否存在欺诈、是否为恶意蹭流量等;综合序列模型和NLP技术,判定小程序内容和标题是否相符。
课题6.9:游戏垂直领域大规模知识图谱的构建
抽取大规模,高质量的结构化数据一直以来是构建知识谱图的难点之一。传统的文本信息抽取技术(Text Information Extraction)能够帮助我们依照知识图谱框架(Schema)从大规模非结构化文本中抽取结构化信息。然而,这种方法限制了实体(Entity)、关系(Relation)等的覆盖率。基于以上原因,开放式信息抽取技术(Open Information Extraction)逐渐成为研究重点,目标是从海量、冗余、异构、不规范、含有大量噪声的大规模的文本中抽取开放类别的实体、关系、事件等多层次语义单元信息。我们的研究重点主要是利用开放式信息抽取技术,从大规模的非结构化数据中抽取高质量的、规范的、与游戏相关的三元组, 从而构建游戏垂直领域的大规模知识图谱。
方向7:数据库存储技术研究
课题7.1:历史数据库的存储优化
历史数据是当前数据库的过往轨迹。高效追溯数据的变迁、查询历史值等,尤其在金融行业具有很大意义,如监管部门要求提供某个账号过去五年的账户金额变化情况,这就需要快速地追溯历史数据。历史数据库、时态数据库将在大数据的背景下更好实现数据的价值。因此对历史数据库、时态数据库形成的巨量数据的存储与管理展开研究很有前景和意义。
方向8:网络研究
课题8.1:可扩展和高可靠的RDMA网络研究
高性能计算、分布式应用和云存储等业务的兴起,给云网络提出了更高带宽和更低延时的需求。基于以太网的RDMA(RoCEv2)协议可以很好的满足这些需求。然而,RDMA在超大规模的以太网环境下部署还存在诸多问题。本课题将基于腾讯RDMA网络环境,研究并优化RDMA流量控制、拥塞控制和QoS等机制,为构建可扩展和高可靠的RDMA网络打下坚实基础。
课题8.2:大规模社交网络上的分布式算法
腾讯微信和QQ的活跃用户数已分别达到十亿和八亿多,用户的链接状况、交流信息更加丰富多样。传统的在如此超大的图上常常无法支持有效的数据处理。在本课题中,我们将探讨对超大图上的分布式算法和流算法的设计问题,并有机会对成功的算法在实际数据中进行测试及运行。
附件二:
2018年度北京大学-腾讯犀牛鸟创新科研基金申报表
申请人姓名 | |
申请项目名称 | |
所属院系 /研究科室 | |
专业领域 | |
最高学历及毕业时间 | |
申报主题 | (请严格按照指南中的项目申报主题填写) |
手机号码 | |
微信号码 | |
电子邮箱 | |
个人简介 | (与申报项目相关的经验和已取得的成果,比如最近两年发表的文章及关注的文献等) |
项目概述 | |
项目目标 | |
执行方案 (1500-2000字) | 1、选题,请简要描述与本项目最接近的现有研究或技术以及所述现有研究技术存在的缺陷或不足; 2、方案制定,请详细描述项目所采用的技术框架及具体方案,并简要阐述项目技术方案的有益效果,包括技术先进性、解决了现有技术的哪些缺陷或不足,可结合“试验研究、数据处理、研制开发”来论证; 3、总结报告、项目鉴定、成果推广、专利申请或论文发表等。 |
计划进度 | 须包含关键时间节点。 |
概要预算 | 请简要提供预算使用计划,主要包括差旅费、劳务费、管理费、其他等。 |
领导审批意见 | 无需加盖单位公章,确认领导意见后注明即可。 |
团队成员 | 姓名 | 学历 | 手机 | 邮箱 | 是否申请精英人才培养计划(学生请注明) |
| | | | |
| | | | |
| | | | |
注:若有其他需要说明的情况,请以附件形式提供。