硕士生导师
计算机科学
基于深度学习的视频内容理解、动作分析与检测、自然语言与视觉跨模态分析
韩婷婷,女,1990年生,黑龙江齐齐哈尔人,副研究员,硕士生导师。2019年博士毕业于哈尔滨工业大学,于2015年至2016年期间在美国密歇根大学(安娜堡)Dr. Jason Corso组进行访问学习。自2019年9月起,任职于杭州电子科技大学计算机学院是图形图像研究所媒体智能实验室 (Media Intelligence Laboratory, MIL) 和复杂系统建模与仿真教育部重点实验室成员。
研究方向:
主要研究兴趣为计算机视觉与机器学习,包括基于深度学习的视频内容理解、动作分析与检测、自然语言与视觉跨模态分析等课题。相关研究成果已发表在ACM Multimedia (CCF A类会议),ACM ICME (CCF B类会议),IEEE Transaction on Multimedia (SCI一区、TOP),Pattern Recognition (SCI一区,TOP)等主流国际会议和期刊。现主持国家自然科学基金青年项目1项、浙江省自然科学基金探索项目1项。
教育经历
2014.09 – 2019.07 工学博士,哈尔滨工业大学计算机科学与技术学院,导师:姚鸿勋教授
2012.09 – 2014.07 工学硕士,哈尔滨工业大学计算机科学与技术学院,导师:姚鸿勋教授
2008.09 – 2012.07 工学学士,哈尔滨工业大学英才学院, 导师:姚鸿勋教授
2015.09 – 2016.09 访问学者,美国密歇根大学安娜堡分校,导师:Jason J. Corso教授
工作经历
2019.09 至今 特聘副教授,杭州电子科技大学计算机学院
文本-视频跨模态动作定位:利用自然语言描述从视频中定位出与描述相关的动作片段。可用于交互式视频检索、视频监控、智能刑侦等广泛的应用场景。预计产出高水平的会议与期刊论文及演示系统。 基于文本描述的视频摘要生成:构建文本-视频跨模态关联,利用生成对抗网络(GAN)生成摘要小视频。可用于小视频平台、新闻平台等领域。预计产出高水平的会议与期刊论文。 |
|
2015- 2019 |
|
动作检索:提出了一个时序嵌入的细粒度动作表示网络(TVENet: Temporal Variance Embedding Network for Fine-grained Action Representation)。该工作的研究成果发表于模式识别领域TOP期刊Pattern Recognition。 动作识别:结合人类视觉关注机制提出了动作显著池化的深度特征描述子(Actionness-pooled Deep-convolutional Descriptor, ADD)。 该工作的研究成果发表于CCF B类会议IEEE ICME 2018和国际期刊Neurocomputing 2019。 |
国家自然科学基金青年项目,海量视频场景中交互式的动作检测研究,2021/01-2023/12,主持,在研
浙江省自然科学基金探索项目,真实场景下文本-动作跨模态检测方法研究,2021/01-2023/12,主持,在研