基于社交媒体数据的空气污染指数挖掘方法开题报告

 2021-08-14 02:08

1. 研究目的与意义(文献综述)

2015年11月30日,北京市发布今年首个雾霾橙色预警,北京单站pm2.5小时浓度最高达到976微克/立方米。由于空气污染事关每个人的健康与安全,pm2.5议题立即获得举国上下的关注,在社交媒体中尤为显著。微博作为当今主流社交媒体平台,其高效、精准、快速的信息传播能力,被越来越多的用户接受和喜爱,起到一个为全社会提供信息传播、舆论监督的开放平台的作用。

本文以pm2.5议题为案例、以新浪微博为平台,选择了北京市作为代表城市。通过研究微博平台关于雾霾的用户数据,试图探寻这些数据与雾霾实情的关系,为社交媒体数据乃至大数据的挖掘提供有益尝试和实例借鉴。

作为新的传播媒介,微博的出现和发展已极大的改变了人们获取信息的方式,对微博信息的挖掘可以广泛应用于企业市场分析、行政管理、灾害预警等方面。目前国内外学者对微博信息的挖掘在多方面展开,文献基于企业迫切需要在微博平台上从事相关商业开发,提出了对包含特定关键词的微博数据进行分类,有助于企业及时了解用户对某些产品和服务的言论和评价[1];文献应用twitter可以对即将发生的事件进行预测的特点,通过对美剧上映前提取twitter上与美剧相关的所有内容,并将这些内容与美剧的收视率进行相关分析,证实了 twitter上的内容与美剧收视率之间存在联系[2];文献对使用微博信息中的地理标记进行发现不寻常的区域社会活动进行了研究,通过提取某一区域的微博中有关社会活动的信息,将这些信息与已有的规律进行比较可以发现这一区域正在发生的不寻常事件[3]。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

2. 研究的基本内容与方案

2.1目标

本文通过研究新浪微博,将这一新兴社交媒体作为切入点,以数据挖掘中的回归分析手段为基础,建立一种能够反映雾霾实情的模型,寻找问题的解决方案。这种方案可以满足政府、媒体以及相关部门针对雾霾天气情况下对微博舆情的监督、引导和管控[5]。

2.2基本内容

绪论部分,对论文的主旨与内容做相关介绍。主要包括论文选题意义、国内外有关数据挖掘与微博相关类似社交媒体的研究现状,论文研究的主要内容、研究方法和论文创新点。

第二部分,论文使用的具体技术支持介绍。包括数据挖掘技术的相关背景、数据挖掘技术的产生、过程、分类与相关算法等,以及对于本文所要用到的回归分析技术做一个详细的介绍,包括回归分析的基本概念、步骤和常用算法。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

3. 研究计划与安排

序 号

工作阶段内容

时间

阶段成果

1

毕业实习

第1周~第2周

完成实习报告

2

收集文献资料并阅读以了解基础理论知识

第3周~第4周

掌握本领域取得的研究成果及其现状

3

整理资料

第5周

形成初步的研究步骤

4

撰写开题报告

第6周

提出开题报告

5

模型构建与实验分析

第7周~第11周

建立好模型并完善

6

论文撰写并形成初稿

第12周~第14周

形成论文初稿

7

论文修改、定稿、打印

答辩

第15周~第17周

完成论文写作,修改定稿,装订成册

,答辩

4. 参考文献(12篇以上)

[1]朱少龙.基于微博的社会化媒体分析系统的设计与实现[d].哈尔滨工业大学.2011,6.[2]徐学鹏.运用twitter进行预测性研究的方法和特点一以美剧和电影为例[d].浙江大学.2011,5.

[3] lee r, wakamiya s, sumiya k. discovery of unusual regional social activitiesusing geo-tagged microblogs[j]. world wide web, 2011,14(4): 321-349.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。