2023年数据分析与可视化心得体会总结 大数据读书心得体会精彩例文.doc优质

时间:2023-06-01 21:25:09 作者:曹czj

我们在一些事情上受到启发后,应该马上记录下来,写一篇心得体会,这样我们可以养成良好的总结方法。心得体会对于我们是非常有帮助的,可是应该怎么写心得体会呢?以下是我帮大家整理的最新心得体会范文大全,希望能够帮助到大家,我们一起来看一看吧。

大数据读书心得体会精彩例文.doc篇一

;

大数据读书心得体会精彩范文

《大数据》不是一本纯技术的书籍,作者用美国多年来丰富而详细的案例说明了大数据的趋势和发展历程,大数据的初衷就是将一个公开、高效的政府呈现在人民眼前。下面是带来的大数据读书心得,欢迎查看。

大数据读书心得篇一

《大数据》是去年的一本畅销书,在20xx年的广州南国书香节上曾有过一瞥,后来又几次听闻,一直想好好看看。现在是一个技术奔腾、信息爆炸的社会,大数据这个新鲜热辣的概念一经推出,就受到了人们极大的热捧。这也难怪,每天都身处网络的信息海洋中,常常会有被数据、信息"淹没"窒息感和无力感,不识庐山真面目,只缘身在此山中,我们向鱼儿一样亟待跳出海面,看看当下网络之海中正涌动着的大数据暗流,看看这个大家都在谈论的大数据到底是个什么东西?

书的扉页上写着作者涂子沛对大数据的定义:大数据(big data)指一般的软件工具难以捕捉、管理和分析的大容量非结构数据,一般以"太字节"为单位。构成大数据的信息主要包括:宽带普及带来的巨量日志和通讯记录,社交网络每天不断更新的个人信息,视频通讯、医疗影像、地理信息、监控录像等视频记录,传感器、导航设备等非传统 it 设备产生的数据信息,以及持续增加的各种智能终端产生的图片及信息,这些信息呈爆炸性增长,不断涌入网络海洋。大数

据之大并不仅仅在于容量之大,更大的意义在于:通过对海量数据的交换、整合和分析,发现新的知识,创造新的价值,带来大知识、大科技、大利润和大发展。当然这个定义并不是唯一的,intel试图用视频解说的方式告诉我们什么是大数据:《大数据入门:大数据如何产生巨大影响力》。

这本书将美国的奥巴马大选作为引子,从他的建立透明和开放的政府的雄心壮志讲起,阳光是最好的防腐剂,信息公开和公民社会紧密相连,从政府信息公开化的必要性,到如何筛选、甄别、分析、管理、利用海量的政府部门的数据,因为政府部门涉及人类生活的方方面面,也就逐渐引出信息社会大数据的概念,给我们带来如何应对大数据时代的到来的挑战和机遇的思考。因为这本书信奉一句至理名言:除了上帝,任何人都必须用数据说话。

麦肯锡20xx年6月的全球市场报告———big data:the next generation frontier for innovation, competition and productivity是深入了解大数据发端和全貌必看的报告,下载地址。

g 就我个人的理解而言,大数据的概念是社会信息化深入发展的一个阶段,映射到教育信息化的领域中来,又有哪些关联和启示呢?专业领域中常常提到的数据挖掘、个人知识管理都和此有关,学校教育过程是一个有特殊的场景、特定的事物和特殊的角色(学生、教师、教育管理者),随着学校的信息化进程加快,与教育教学和学习相关的环境数据、业务数据和角色数据也将大量增加,这就是是教育领域中的大数据,如何有效获取、筛选、管理和利用也成为挑战和

变革的机遇。

大数据读书心得篇二

有人说生活像一团乱麻,剪不断理还乱;我说生活像一团乱码,尽管云山雾罩惝恍迷离,最后却总会拨云见日雨过天晴。维克托迈尔舍恩伯格就把这团乱码叫做大数据,在他的这本书里,试图给出的就是拨开云雾见青天的玄机。

这玄机说来也简单,就是放弃千百年来人们孜孜追求的因果关系转而投奔相关关系。说来简单,其实却颠覆了多少代人对真理探求的梦想。我觉得作者是个典型的实用主义者,在美帝国主义万恶的压迫和洗脑下,始终追逐性价比和利益最大化,居然放弃了追求共产主义真理最基本的要求!不像我们在天朝光芒的笼罩下,从小就开始学习和追求纯粹的共产主义唯心科学历史文化知识啦!这或许就是我们永远无法获得诺贝尔奖、永远无法站在科技最前沿的根本原因吧。其实小学时候,我就想过这个问题,相信所有的人都问过类似的问题,例如现在仍然很多人在问,妈的从来没人知道我每天摆摊赚多少钱,你们他妈的那人均收入四五千是怎么算出来的。中国是抽样的代表,因为中国人最喜欢用代表来表现整体,最典型的例子莫过于公布的幸福指数满意指数各种指数永远都高于你的预期,你完全不清楚他是怎么来的,一直到最后汇总成三个代表,真心不清楚它到底能代表了啥。说这么多显得自己是个愤青,其实只是想表达"样本=总体"这个概念在科技飞速发展的今天,在世界的不同角落,还是会体现出不同的价值,受到不同程度的对待及关注。在大数据观念的冲击下,我们是不

是真的需要将平时关注的重点从事物内在的发展规律转移到事物客观的发生情况上。

大数据的出现,必然对诸多领域产生极大的冲击,某些行业在未来十年必将会得到突飞猛进的发展,而其他一些行业则可能会消失。这是废话,典型的三十年河东三十年河西的道理,就像三十年前的数理化王子们,现在可能蜷缩在某工厂的小角落里颤颤巍巍的修理机器;就像三十年前职业高中的学生才学财会学银行,如今这帮孙子一个个都开大奔养小三攒的楼房够给自己做墓群的了;当然也不乏像生物这种专业,三十年前人们不知道是干啥的,三十年后人们都知道没事别去干,唯一可惜的是我在这三十年之间的历史长河中却恰恰选了这么一个专业,这也是为什么我现在在这写读后感而没有跟姑娘去玩耍的原因。其实乍一看这个题目,我首先想到的是精益生产的过程控制,比如六西格玛,这其实就是通过对所有数据的分析来预测产品品质的变化,就已经是大数据的具体应用了。

而任何事物都会有偏差,会有错误,也就是说,这全部的数据中,肯定是要出现很多与总体反应出的规律相违背的个体,但是无论如何这也是该事件中一般规律的客观体现的一种形式,要远远好过从选定的样本中剔除异常值然后得到的结论。换句话说,也大大减少了排除异己对表达事物客观规律的影响。就好比是统计局统计中国人民的平均收入一样,这些数怎么这么低啊,这不是给我们国家在国际社会上的形象抹黑么,删掉删掉;这些数怎么这么高啊,这还不引起社会不满国家动荡啊,删掉删掉。所以说,大数据至少对反应客观事实

和对客观事实做预测这两个方面是有非常积极地意义的。而这个新兴行业所体现的商机,既在如何利用数据上,又在如何取得数据上。

先说数据的利用,这里面表达的就是作者在通书中强调的对"相关关系"的挖掘利用。相关关系与因果关系便不再赘述,而能够对相关关系进行挖掘利用的企业其实缺不多,因为可以相信未来的大数据库就像现在的自然资源一样,必将因为对利益的追逐成为稀缺资源,而最终落在个别人或企业或部门的手中。想想无论当你想要做什么事情的时候,都有人已经提前知道并且为你做好了计划,还真是一件甜蜜而又令人不寒而栗的事情。

而对于数据的获取,我觉得必然是未来中小型企业甚至个人发挥极致的创造力的领域。如何在尽可能降低成本的情况下采集到越多越准确的数据是必然的发展趋势,鉴于这三个维度事实上都无法做到极致,那么对于数据获取方式的争夺肯定将成就更多的英雄人物。

现在回头从说说作者书中的观点中想到的,p87中关于巴斯德的疫苗的事件,描述了一个被疯狗咬伤的小孩,在接种了巴斯德的狂犬疫苗后成功幸存,巴斯德成了英雄的故事。这是个非常有意思的案例,因为小孩被狗咬伤而患病的概率仅为七分之一,也就是说,本事件有85%的概率是小孩根本就不会患病。那么小孩的生命到底是不是巴斯德救的,而这疫苗到底是有效没效,通过这个事件似乎根本就没有办法得到验证。这就好比某人推出个四万亿计划,但实际上国际经济形势就是好转,哪怕你只推出个二百五计划,gdp都会蹭蹭的往上涨,而且又不会带来四万亿导致的严重通胀、产能过剩、房价泡沫等

问题。那你说这四万亿到底是救了国还是误了国?回到我自己的工作领域上来,安全工作,我们一直遵循的方向都是寻找因果关系,典型的从工作前的风险评估,到调查事故的taproot或者五个为什么,无一不是逻辑推理得到结果的产物。而事实上,如果能做到信息的丰富采集和汇总的话,找出事物之间的相关性,对提高工作环境的安全系数是极为有利的。这个点留着,看看可不可以在未来继续做进一步研究。

大数据读书心得篇三

《大数据》不是一本纯技术的书籍,作者用美国多年来丰富而详细的案例说明了大数据的趋势和发展历程,大数据的初衷就是将一个公开、高效的政府呈现在人民眼前。书中从美国《信息自由法》说起,其发展历程充满了坎坷,经过各个时期信息自由倡议者的努力,终于出现端倪,并迅速成长,充分体现出美国政府的信息必须被公开,以及个人的隐私必须被保护。人类可以"分析和使用"的数据在大量增加,通过这些数据的交换、整合和分析,人类可以发现新的知识,创造新的价值,带来"大知识"、"大科技"、"大利润"和"大发展"。

《大数据》开篇讲述美国《信息自由法》历经多任总统,其中有支持者,也有反对者,最后终于签发,标志都美国进入信息公开及隐私保护的大数据时代。现如今全世界现有60多个国家制定、实施《信息自由法》。

随着《信息自由法》的颁布,以及现代科技的发展,会产生越来越多的数据。数据主要来源是:1.各行各业通过计算机产生了大量

的数据;2. 业务数据3. 民意数据4. 环境数据。并且数据在数量、速度、多样性三个维度迅速增长,促使数据帝国逐渐兴起。

有了这么多数据,应该如何利用?

首先,在治国方面。1.循"数"管理,减少交通事故死亡人数。

2.用数据进行医疗福利打假,可为政府节省开支。

3.警方通过compstat系统,分析犯罪数据,预知犯罪地点。

其次,商务智能方面。1.数据仓库,2.联机分析(olap),3. 数据挖掘,4. 数据可视化。

当然随着数据的增多,如何收集和使用这些数据,就需要制订一系列的法则。1.收集法则:减负;2.使用法则:隐私;3.发布法则:免费,4.管理法则:质量。其中数据质量最为重要,为了保证数据质量颁布了《数据质量法》,同时也带来了困惑,即给商业组织带来了质疑政府公布数据质量的手段,对于这一手段,满足其商业利益,是民主与商业组织之间的对抗和冲突。

同时,统一分析和使用大数据与个人隐私产生的冲突。通过中央数据银行和全国统一id就获得某个人一生的行动,违反了个人隐私法,但不分析这些信息,又可能导致恐怖分子的袭击,最终以保护个人隐私胜利,但政府还是想执行统一身份认证。

奥巴马的上任加速了政府数据开放的进程,奥巴马上任后立即任命首席信息官,由首席信息官在4个月内推出政府大数据网站http:///doc/,在互联网上为民众提供开放的政府数据。阳光基金会和个人利用开放数据开发出各种分析工具,充分体现出数据价值。

但公益组织并不满足开放数据的数量,为了让民众监督一个更为公正透明的政府,公益组织要求公开白宫访客记录,但这并不是一个简单的要求。经过公益组织不懈的努力,白宫终于公开了访客记录,但公益组织发现了更多的问题,白宫也提出将继续修改访客记录的方式。

大数据有效的监督了政府的公正与民主。民主不是一个结果,而是参与的过程,人民要不断的争取才能实现民主。

本书结尾也较详细的描述除美国外,其它各国通过大数据走向民主的进程,充分说明了这一进程是一个大趋势。首先,英国紧随美国后面实施数据开放,虽然晚于美国,但发展飞快,开放的数据量已超过美国。其次,即美、英两国开放数据之后,更多的国家也加入到其中。20xx年9月20日,8个国家宣布成立"开放政府联盟",要想加入需具备4个条件:1.财政透明,2.信息自由,3.财产公开,4.

公民参与。截止20xx年4月25日已有50个国家加入。

在大数据时代,数据就是直接的财富,数据分析和挖掘能力就是国家、企业的核心竞争力。中国应该摘下千百年来差不多先生的标签,尽快赶上西方国家大数据的步伐。

推荐阅读:大数据时代心得体会关于《汉字的故事》读书心得5篇读书心得体会范文1000字_读书心得1000字作文

2020-05-13

大数据读书心得篇四

近两周用业余时间读了《大数据时代》这本书,是听培训时杜威老师推荐的,我快速阅读了一遍,觉得受到了一些启发,发现了一些原来没有想到看到的事情。

首先是大数据代表着数据的样本=全体,这是一个与传统统计学的显著区别。大数据有能力获得全体数据并对其进行分析。

推陈出新。前几年,一家名为farecast的公司,让预订到更优惠的机票价格不再是梦想。公司利用航班售票的数据来预测未来机票价格的走势。现在,使用这种工具的乘客,平均每张机票可以省大约50美元,这就是大数据给人们带来的便利。

大家应该都知道20xx年出现的h1n1型流感,就拿美国为例,疾控中心每周只进行一次数据统计,而病人一般都是难以忍受病痛的折磨才会去医院就诊,因此也导致了信息的滞后。然而,对于飞速传播的疾病,google公司却能及时地作出判断,确定流感爆发的地点,这便是基于庞大的数据资源,可见大数据时代对公共卫生也产生了重大的影响!

在我看来,如果想在在大数据时代里畅游,不仅要学会分析,而且还要能够大胆地决断。

在美国,每到七、八月份时,正是台风肆虐之时,防涝用品也摆上了商品货架。沃尔玛公司注意到,每到这时,一种蛋挞的销售量较其他月份明显增加。于是,商家作了大胆的推测,出现这样的结果源于两种物品的相关性,便将这种蛋挞摆在了防涝用品的旁边。这样的举措大大增加了利润,这就是属于世界头号零售商的大数据头脑!

大数据时代的到来,可以让我们的生活更加便利。但是,如果让大数据主宰一切,也存在一定的风险。

大家应该都知道电子地图,它可以为人们指引方向。但大家应该还不知道,它会默默地积累人们的行程数据,通过智能分析可以推断出哪里是自己的家,哪里是工作单位。我们的隐私就这样被不为人

知地收集着。

大数据时代的到来,让我们的生活更安全,更方便,但与此同时,我们的隐私不再是隐私,数据的收集变得无所不包、无孔不入。世界已经向大数据时代迈进了一小步,一个崭新的时代正向我们走来。让我们用知识武装大脑,做好准备,迎接新时代的到来!

大数据读书心得篇六

在看《大数据》之前,我只知道社会越来越数字化了,看完之后,才觉悟到:人类将迎来一个新的时代。

数字化已经把我们带入一个信息时代,大数据却把我们卷进了一场科技风暴之中,这本书中,作者为我们开启了一个更包容更广阔的新时代,大数据把社会的方方面面融合在了一起,曾经看似因果联系紧密的事物,可能变得不再那么重要;毫无关联的事物,可能隐藏着重要的信息,从科技、商业,到医疗、政治、教育、文化,大数据一概席卷囊括,它改变着我们的传统思维,为这个时代注入了新鲜的血液,就像作者书中所说:"这项技术终将改变我们所居住的星球上的许多东西。"

大数据最显著的影响是对于电子商务,通过大数据,最先洞察出潜在市场的,也必然最先占领市场。而电子商务对实业的冲击又是势不可挡,可见,掌握了大数据就主导了市场,拥有了先进的科技才能拥有坚实的竞争力。在医疗方面,曾经的非典时期,就是一个很好的例证,正是有大数据的预测功能,才使疫情得到了控制。在更小的方面,他也同样改变着我们的生活,书中提到美国著名计算机专家奥

伦 · 埃齐奥尼发明了飞机机票价格预测软件,就是利用大数据造福我们生活的很好例子。

大数据不仅节省了时间,提高了效率,更将人类带入一个新的文明阶段。从分析因果总结经验,转变为搜集数据预测未来;由原来的滞后性变为现在的预见性——大大提高了人类认识世界、改造世界的能力,变被动为主动。大数据为我们掀开了历史新纪元,不敢想象它将会为我们带来什么,或许会出现新奇的生活方式,从未有过的职业,闻所未闻的商业模式,百家争鸣的文化高峰;也或许会解开更多未解之谜,探索到宇宙之外的秘密。总之,毫无疑问的是,大数据为我们带来的未来是超乎想象的。

这本书中作者提到最多的是:改变我们的传统思维,摒弃精确性转向宏观。从总结因果转向预测。这个世界正以惊人的速度向前发展,数据大爆炸的波及范围远超乎我们的想象,单纯靠人类的主观判断力是多么的有限,大数据早晚会取而代之这一现象,这必将影响我们的生活和工作,我们也只有认清这种趋势,改变思维,调整步伐,紧跟时代才行。即使不能与时代同步,也尽量做到避免固步自封,认识大数据、利用大数据趋利避害,为我们的生活造福!

推荐阅读:大数据时代心得体会关于《汉字的故事》读书心得5篇读书心得体会范文1000字_读书心得1000字作文

相关热词搜索:;

大数据读书心得体会精彩例文.doc篇二

;

对大数据的心得体会

早在xx年,人类制造的信息量有史以来第一次在理论上超过可用存储空间总量,近几年两者的剪刀差越来越大。xx年,全球数字规模首次达到了“zb”级别。xx年,淘宝网每天在线商品数超过8亿件。xx年底,中国手机网民超过

6亿户。随着互联网、移动互联网、传感器、物联网、社交网站、云计算等的兴起,我们这个社会的几乎所有方面都已数字化,产生了大量新型、实时的数据。无疑,我们已身处在大数据的海洋。有两个重要的趋势使得目前的这个时代与之前有显著的差别:其一,社会生活的广泛数字化,其产生数据的规模、复杂性及速度都已远远超过此前的任何时代;其二,人类的数据分析技术和工艺使得各机构、组织和企业能够以从前无法达到的复杂度、速度和精准度从庞杂的数据中获得史无前例的洞察力和预见性。

大数据是技术进步的产物,而其中的关键是云技术的进步。在云技术中,虚拟化技术乃最基本、最核心的组成部份。计算虚拟化、存储虚拟化和网络虚拟化技术,使得大数据在数据存储、挖掘、分析和应用分享等方面不仅在技术上可行,在经济上也可接受。

在人类文明史上,人类一直执着探索我们处的世界以及人类自身,一直试图测量、计量这个世界以及人类自身,试图找到隐藏其中的深刻关联、运行规律及终极答案。大数据

以其人类史上从未有过的庞大容量、极大的复杂性、快速的生产及经济可得性,使人类第一次试图从总体而非样本,从混杂性而非精确性,从相关关系而非因果关系来测量、计量我们这个世界。人类的思维方式、行为方式及社会生活的诸多形态正在开始发生新的变化。或许是一场革命性、颠覆性的变化。从这个意义上讲,大数据不仅是一场技术运动,更是一次哲学创新。

1 大数据的概述

大数据的概念

大数据是指那些超过传统数据库系统处理能力的数据。它的数据规模和转输速度要求很高,或者其结构不适合原本的数据库系统。为了获取大数据中的价值,我们必须选择另一种方式来处理它。

数据中隐藏着有价值的模式和信息,在以往需要相当的时间和成本才能提取这些信息。如沃尔玛或谷歌这类领先企业都要付高昂的代价才能从大数据中挖掘信息。而当今的各种资源,如硬件、云架构和开源软件使得大数据的处理更为方便和廉价。即使是在车库中创业的公司也可以用较低的价格租用云服务时间了。

对于企业组织来讲,大数据的价值体现在两个方面:分析使用和二次开发。对大数据进行分析能揭示隐藏其中的信息,例如零售业中对门店销售、地理和社会信息的分析能提

升对客户的理解。对大数据的二次开发则是那些成功的网络公司的长项。例如facebook通过结合大量用户信息,定制出高度个性化的用户体验,并创造出一种新的广告模式。这种通过大数据创造出新产品和服务的商业行为并非巧合,谷歌、雅虎、亚马逊和facebook,它们都是大数据时代的创新者。

大数据的三层关系

第一层关系:数据与机器的关系。大数据纪元刚开始,产业界碰到的第一个核心问题就是“大”的问题。做了几十年的数据仓库甚至海量并行处理的数据库都不能处理那么大的数据,怎么办?需要范式切换。主要有三个方面,新型的数据与机器关系当中的第一条就是重新考虑架构与算法,重新考虑舍得,有舍才能得,天下没有免费的午餐,所以必须要舍弃一些,得到一些新的。必须舍弃贵族化的高端小型机和unix服务器,得到平民化的更大量的x86服务器。通过这样一种可横向、可水平扩展服务器处理每两年翻番的数据量的挑战。第二个舍得是舍弃硬件的可靠性和可用性,得到软件的可靠性和可用性。这也就是谷歌三大论文以及hadoop的核心重点。第三个舍得是舍弃传统数据库的强一致性,获得更放松一致性、可扩展架构,如nosql。第四个舍得是传统算法强调非常严格的精确性,现在要放弃一些精确性,通过近似、采样这种方式来获得更好的扩展性。

最早大数据的处理范式是mapreduce的批量处理,英特尔慢慢有其他的需求,实时的流处理、多迭代的处理、图计算、即时查询等等新的范式百花齐放,最后万法归宗。刚才王斌老师将讲的sap的hana本身就是数据管理和分析的融合,现在非常流行的hadoop之后的spark,就是把前面的各种范式进行了融合。

存储与内存的消长,大数据第一个要解决把数据存储下来,后来发现要把它放到大的内存里进行处理,获得实时性,接着在存储和内存之间现在又出现了闪存,有闪存化甚至全闪存的存储,也有闪存化的内存,把所有的计算在闪存里面处理,已经被微软、facebook等等大量使用。大家可以预期,两年以后出现新的非易失性的闪存,它的速度可能要比闪存快几百倍,和内存相似,这又会极大地颠覆数据与机器的关系。

第二层关系:数据与人的关系。主要是价值的觉醒,如果数据不能产生价值它可能是负面资产。数据怎么能够给人带来价值?我们介绍一下它的价值维度,把它映射到二维的时空象限里,用六个关键词来描述它。第一是“volume”,两个关键词,小数据见微对个人进行刻划,大数据知著能够了解宏观规律,它是空间概念,同时也是时间概念,数据刚刚产生的时候,它的个性化价值、见微的价值最大,而随着时间的推移,它渐渐退化到只有集合价值。第二是velocity,

时间轴的原点是当下实时价值,副轴是过往,正轴是预测未来,如果知道知前后就能够做到万物的皆明。第三是variety,多源异质的数据,能够过滤噪声、查漏补缺、去伪存真,就是辩讹。还有晓意,能够从大量的非结构化数据中获得语意,从而能够使机器窥探人的思维境界,这六个价值维度怎么去实现?主要是两部分人,一是数据科学家要洞察数据,另外一个是终端用户和领域专家要去解读数据并利用数据。首先看洞察数据,数据科学,人和机器作用发生了消长,讲个例子,机器学习大家觉得是机器的问题,其实人在里面起到很重要的作用,尤其是机器学习是模型加特征,而特征工程是一个人力工程,你要有经验非常丰富的特征团队去死磕特征,找出更好、更多的特征,才能够使机器学习的效果更好。但是现在深度学习这些新技术出来,能够用机器学习特征,能够在大量非结构化数据中找到丰富的信息维度用特征表达出来,这远远超出了人的能力。大家知道黑客帝国描述了一个场景,人脑袋后面插一个插头,给机器提供营养,我可能不会那么悲观,但是像这样的互动关系以一种更良性的方式出现了,现在人的一言一行、社交行为、金融行为都已经成为机器的养料、机器的数据,使得机器获得更好的洞察。

终端用户需要更好地、更傻瓜化的分析工具和可视化工具,两年前我去参加大数据的会,基本上都是hadoop和nosql 现在大家参加大数据会可以看到清一色的分析工具和可视

化工具。大数据跟各行各业的化学作用正在发生。如果马化腾说“互联网+”是互联网与各行各业的加法效应,那么大数据将与各行各业产生乘法效应。

第三个关系,数据与数据的关系。现在只有海面平的数据是搜索引擎可以检索到,深海的数据可能是黑暗的数据,在政府、在企业里大家看不到。我们怎么办呢?必须让数据发现数据。只有让数据能够发现数据、遇到数据,才能产生金风玉露一相逢、便胜却人间无数的效果。这里有三个重要的观念,需要法律、技术、经济理论和实践上配合。法律上要明确数据的权利,数据所有权,数据的隐私权,什么数据不能给你看;数据的许可权,什么数据是可以给你看的;数据的审计权,我给你看了以后,你是不是按照许可的范围去看;数据的分红权。数据像原油又不同于原油,原油用完了就没有了,数据可以反复地产生价值,因此数据的拥有者应该得到分红。我们要保证数据的开放、共享、交易。公共数据和部分科研数据要开放,开放过程中注意保护隐私。企业之间可以进行数据的点对点共享,最高境界是不丢失数据的所有权和隐私权的前提下共享,这里有多方安全计算的概念。1982年姚期智老先生提出了百万富翁的窘境的问题,两个百万富翁他们想要比谁更富,但是谁都不愿意说出来自己都多少钱,在我们的数据共享当中要通过各种各样的技术达到这样的效果。还有数据交易,建立多边多边平台来支持数

据交易。

互联网能发展起来经济学理论和实践是很重要的支撑,梅特卡夫定律决定了一个互联网公司的价值,跟它用户数的平方成正比,又比如说谷歌请最好的经济学家,它的一个广告业务的核心就是建立在一个非常先进的拍卖经济学的模型基础上。数据经济也需要这样一些基础的理论,比如数据定价和信息定价不一样,信息做一个咨询报告5000美金卖给你,可以卖给所有人。但数据对不同的单位价值不一样,可能我之毒药是彼之蜜糖。另外估值,一个企业拥有大量的数据,是无形资产的一部分,对于企业的市场价值带来了多大的增长。

大数据的四个特性

大数据是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。这也是一个描述性的定义,在对数据描述的基础上加入了处理此类数据的一些特征,用这些特征来描述大数据。当前,较为统一的认识是大数据有四个基本特征: 数据规模大( volume) ,数据种类多( variety) ,数据要求处理速度快( velocity) ,数据价值密度低( value) ,即所谓的四v 特性。

数据规模大( volume):企业面临着数据量的大规模增长。例如,idc最近的报告预测称,到2020年,全球数据量

将扩大50倍。目前,大数据的规模尚是一个不断变化的指标,单一数据集的规模范围从几十tb到数pb不等。简而言之,存储1pb数据将需要两万台配备50gb硬盘的个人电脑。此外,各种意想不到的来源都能产生数据。

数据种类多( variety):一个普遍观点认为,人们使用互联网搜索是形成数据多样性的主要原因,这一看法部分正确。然而,数据多样性的增加主要是由于新型多结构数据,以及包括网络日志、社交媒体、互联网搜索、手机通话记录及传感器网络等数据类型造成。其中,部分传感器安装在火车、汽车和飞机上,每个传感器都增加了数据的多样性。

处理速度快( velocity):高速描述的是数据被创建和移动的速度。在高速网络时代,通过基于实现软件性能优化的高速电脑处理器和服务器,创建实时数据流已成为流行趋势。企业不仅需要了解如何快速创建数据,还必须知道如何快速处理、分析并返回给用户,以满足他们的实时需求。根据ims research关于数据创建速度的调查,据预测,到2020年全球将拥有220亿部互联网连接设备。

数据价值密度低( value):大数据具有多层结构,这意味着大数据会呈现出多变的形式和类型。相较传统的业务数据,大数据存在不规则和模糊不清的特性,造成很难甚至无法使用传统的应用软件进行分析。传统业务数据随时间演变已拥有标准的格式,能够被标准的商务智能软件识别。目前,

企业面临的挑战是处理并从各种形式呈现的复杂数据中挖掘价值。

大数据的三个特征

除了有四个特性之外,大数据时代的数据还呈现出其他三个特征。

第一个特征是数据类型繁多。包括网络日志、音频、视频、图片、地理位置信息等等,多类型的数据对数据的处理能力提出了更高的要求.

第二个特征是数据价值密度相对较低。如随着物联网的广泛应用,信息感知无处不在,信息海量,但价值密度较低,如何通过强大的机器算法更迅速地完成数据的价值“提纯”,是大数据时代亟待解决的难题。

大数据时代的信息分析平

台搭建安装报告

一、平台搭建

描述小组在完成平台安装时候遇到的问题以及如何解决这些问题的,要求截图加文字描述。

问题一:在决定选择网站绑定时,当时未找到网站绑定的地方。解决办法:之后小组讨论后,最终找到网站绑定的地方,点击后解决了这个问题。

问题二:当时未找到tcp/ip属性这一栏

解决办法:当时未找到tcp/ip属性这一栏,通过老师

的帮助和指导,顺利的点击找到了该属性途径,启用了这一属性,完成了这一步的安装步骤。

问题三:在数据库这一栏中,当时未找到“foodmartsaledw”这个文件

解决办法:在数据库这一栏中,当时未找到“foodmartsaledw”这个文件,后来询问老师后,得知该文件在第三周的文件里,所以很快的找到了该文件,顺利的进行了下一步

问题四:在此处的sql server的导入和导出向导,这个过程非常的长。

解决办法:在此处的sql server的导入和导出向导(出自: 博文学习网:对大数据的心得体会),这个过程非常的长,当时一直延迟到了下课的时间,小组成员经讨论,怀疑是否是电脑不兼容或其他问题,后来经问老师,老师说此处的加载这样长的时间是正常的,直到下课后,我们将电脑一直开着到寝室直到软件安装完为止。

问题五:问题二:.不知道维度等概念,不知道怎么设置表间关系的数据源。关系方向不对

解决办法:百度维度概念,设置好维度表和事实表之间的关系,关系有时候是反的——点击反向,最后成功得到设置好表间关系后的数据源视图。

这个大图当时完全不知道怎么做,后来问的老师,老师

边讲边帮我们操作完成的。

信息时代的到来,我们感受到的是技术变化日新月异,随之而来的是生活方式的转变,我们这样评论着的信息时代已经变为曾经。如今,大数据时代成为炙手可热的话题。

信息和数据的定义。维基百科解释:信息,又称资讯,是一个高度概括抽象概念,是一个发展中的动态范畴,是进行互相交换的内容和名称,信息的界定没有统一的定义,但是信息具备客观、动态、传递、共享、经济等特性却是大家的共识。数据:或称资料,指描述事物的符号记录,是可定义为意义的实体,它涉及到事物的存在形式。它是关于事件之一组离散且客观的事实描述,是构成信息和知识的原始材料。数据可分为模拟数据和数字数据两大类。数据指计算机加工的“原料”,如图形、声音、文字、数、字符和符号等。从定义看来,数据是原始的处女地,需要耕耘。信息则是已经处理过的可以传播的资讯。信息时代依赖于数据的爆发,只是当数据爆发到无法驾驭的状态,大数据时代应运而生。

在大数据时代,大数据时代区别与转变就是,放弃对因果关系的渴求,而取而代之关注相关关系。也就是说只要知道“是什么”,而不需要知道“为什么”。数据的更多、更杂,导致应用主意只能尽量观察,而不是倾其所有进行推理。小数据停留在说明过去,大数据用驱动过去来预测未来。数据的用途意在何为,与数据本身无关,而与数据的解读者有关,

而相关关系更有利于预测未来。大数据更多的体现在海量非结构化数据本身与处理方法的整合。大数据更像是理论与现实齐头并进,理论来创立处理非结构化数据的方法,处理结果与未来进行验证。大数据是在互联网背景下数据从量变到质变的过程。小数据时代也即是信息时代,是大数据时代的前提,大数据时代是升华和进化,本质是相辅相成,而并非相离互斥。

数据未来的故事。数据的发展,给我们带来什么预期和启示?金融业业天然有大数据的潜质。客户数据、交易数据、管理数据等海量数据不断增长,海量机遇和挑战也随之而来,适应变革,适者生存。我们可以有更广阔的学习空间、可以有更精准的决策判断能力这些都基于数据的收集、整理、驾驭、分析能力,基于脱颖而出的创新思维和执行。因此,建设“数据仓库”,培养“数据思维”,养成“数据治理”,创造“数据融合”,实现“数据应用”才能拥抱“大数据”时代,

从数据中攫取价值,笑看风云变换,稳健赢取未来。

相关热词搜索:;

大数据读书心得体会精彩例文.doc篇三

《大数据》不是一本纯技术的书籍,作者用美国多年来丰富而详细的案例说明了大数据的趋势和发展历程,大数据的初衷就是将一个公开、高效的政府呈现在人民眼前。下面是本站带来的大数据读书心得,欢迎查看。

书的扉页上写着作者涂子沛对大数据的定义:大数据(big data)指一般的软件工具难以捕捉、管理和分析的大容量非结构数据,一般以“太字节”为单位。构成大数据的信息主要包括:宽带普及带来的巨量日志和通讯记录,社交网络每天不断更新的个人信息,视频通讯、医疗影像、地理信息、监控录像等视频记录,传感器、导航设备等非传统 it 设备产生的数据信息,以及持续增加的各种智能终端产生的图片及信息,这些信息呈爆炸性增长,不断涌入网络海洋。大数据之大并不仅仅在于容量之大,更大的意义在于:通过对海量数据的交换、整合和分析,发现新的知识,创造新的价值,带来大知识、大科技、大利润和大发展。当然这个定义并不是唯一的,intel试图用视频解说的方式告诉我们什么是大数据:《大数据入门:大数据如何产生巨大影响力》。

这本书将美国的奥巴马大选作为引子,从他的建立透明和开放的政府的雄心壮志讲起,阳光是最好的防腐剂,信息公开和公民社会紧密相连,从政府信息公开化的必要性,到如何筛选、甄别、分析、管理、利用海量的政府部门的数据,因为政府部门涉及人类生活的方方面面,也就逐渐引出信息社会大数据的概念,给我们带来如何应对大数据时代的到来的挑战和机遇的思考。因为这本书信奉一句至理名言:除了上帝,任何人都必须用数据说话。

麦肯锡20xx年6月的全球市场报告———big data:the next generation frontier for innovation, competition and productivity是深入了解大数据发端和全貌必看的报告,下载地址。

g 就我个人的理解而言,大数据的概念是社会信息化深入发展的一个阶段,映射到教育信息化的领域中来,又有哪些关联和启示呢?专业领域中常常提到的数据挖掘、个人知识管理都和此有关,学校教育过程是一个有特殊的场景、特定的事物和特殊的角色(学生、教师、教育管理者),随着学校的信息化进程加快,与教育教学和学习相关的环境数据、业务数据和角色数据也将大量增加,这就是是教育领域中的大数据,如何有效获取、筛选、管理和利用也成为挑战和变革的机遇。

有人说生活像一团乱麻,剪不断理还乱;我说生活像一团乱码,尽管云山雾罩惝恍迷离,最后却总会拨云见日雨过天晴。维克托迈尔舍恩伯格就把这团乱码叫做大数据,在他的这本书里,试图给出的就是拨开云雾见青天的玄机。

这玄机说来也简单,就是放弃千百年来人们孜孜追求的因果关系转而投奔相关关系。说来简单,其实却颠覆了多少代人对真理探求的梦想。我觉得作者是个典型的实用主义者,在美帝国主义万恶的压迫和洗脑下,始终追逐性价比和利益最大化,居然放弃了追求共产主义真理最基本的要求!不像我们在天朝光芒的笼罩下,从小就开始学习和追求纯粹的共产主义唯心科学历史文化知识啦!这或许就是我们永远无法获得诺贝尔奖、永远无法站在科技最前沿的根本原因吧。其实小学时候,我就想过这个问题,相信所有的人都问过类似的问题,例如现在仍然很多人在问,妈的从来没人知道我每天摆摊赚多少钱,你们他妈的那人均收入四五千是怎么算出来的。中国是抽样的代表,因为中国人最喜欢用代表来表现整体,最典型的例子莫过于公布的幸福指数满意指数各种指数永远都高于你的预期,你完全不清楚他是怎么来的,一直到最后汇总成三个代表,真心不清楚它到底能代表了啥。说这么多显得自己是个愤青,其实只是想表达“样本=总体”这个概念在科技飞速发展的今天,在世界的不同角落,还是会体现出不同的价值,受到不同程度的对待及关注。在大数据观念的冲击下,我们是不是真的需要将平时关注的重点从事物内在的发展规律转移到事物客观的发生情况上。

大数据的出现,必然对诸多领域产生极大的冲击,某些行业在未来十年必将会得到突飞猛进的发展,而其他一些行业则可能会消失。这是废话,典型的三十年河东三十年河西的道理,就像三十年前的数理化王子们,现在可能蜷缩在某工厂的小角落里颤颤巍巍的修理机器;就像三十年前职业高中的学生才学财会学银行,如今这帮孙子一个个都开大奔养小三攒的楼房够给自己做墓群的了;当然也不乏像生物这种专业,三十年前人们不知道是干啥的,三十年后人们都知道没事别去干,唯一可惜的是我在这三十年之间的历史长河中却恰恰选了这么一个专业,这也是为什么我现在在这写读后感而没有跟姑娘去玩耍的原因。其实乍一看这个题目,我首先想到的是精益生产的过程控制,比如六西格玛,这其实就是通过对所有数据的分析来预测产品品质的变化,就已经是大数据的具体应用了。

而任何事物都会有偏差,会有错误,也就是说,这全部的数据中,肯定是要出现很多与总体反应出的规律相违背的个体,但是无论如何这也是该事件中一般规律的客观体现的一种形式,要远远好过从选定的样本中剔除异常值然后得到的结论。换句话说,也大大减少了排除异己对表达事物客观规律的影响。就好比是统计局统计中国人民的平均收入一样,这些数怎么这么低啊,这不是给我们国家在国际社会上的形象抹黑么,删掉删掉;这些数怎么这么高啊,这还不引起社会不满国家动荡啊,删掉删掉。所以说,大数据至少对反应客观事实和对客观事实做预测这两个方面是有非常积极地意义的。而这个新兴行业所体现的商机,既在如何利用数据上,又在如何取得数据上。

先说数据的利用,这里面表达的就是作者在通书中强调的对“相关关系”的挖掘利用。相关关系与因果关系便不再赘述,而能够对相关关系进行挖掘利用的企业其实缺不多,因为可以相信未来的大数据库就像现在的自然资源一样,必将因为对利益的追逐成为稀缺资源,而最终落在个别人或企业或部门的手中。想想无论当你想要做什么事情的时候,都有人已经提前知道并且为你做好了计划,还真是一件甜蜜而又令人不寒而栗的事情。

而对于数据的获取,我觉得必然是未来中小型企业甚至个人发挥极致的创造力的领域。如何在尽可能降低成本的情况下采集到越多越准确的数据是必然的发展趋势,鉴于这三个维度事实上都无法做到极致,那么对于数据获取方式的争夺肯定将成就更多的英雄人物。

现在回头从说说作者书中的观点中想到的,p87中关于巴斯德的疫苗的事件,描述了一个被疯狗咬伤的小孩,在接种了巴斯德的狂犬疫苗后成功幸存,巴斯德成了英雄的故事。这是个非常有意思的案例,因为小孩被狗咬伤而患病的概率仅为七分之一,也就是说,本事件有85%的概率是小孩根本就不会患病。那么小孩的生命到底是不是巴斯德救的,而这疫苗到底是有效没效,通过这个事件似乎根本就没有办法得到验证。这就好比某人推出个四万亿计划,但实际上国际经济形势就是好转,哪怕你只推出个二百五计划,gdp都会蹭蹭的往上涨,而且又不会带来四万亿导致的严重通胀、产能过剩、房价泡沫等问题。那你说这四万亿到底是救了国还是误了国?回到我自己的工作领域上来,安全工作,我们一直遵循的方向都是寻找因果关系,典型的从工作前的风险评估,到调查事故的taproot或者五个为什么,无一不是逻辑推理得到结果的产物。而事实上,如果能做到信息的丰富采集和汇总的话,找出事物之间的相关性,对提高工作环境的安全系数是极为有利的。这个点留着,看看可不可以在未来继续做进一步研究。

《大数据》不是一本纯技术的书籍,作者用美国多年来丰富而详细的案例说明了大数据的趋势和发展历程,大数据的初衷就是将一个公开、高效的政府呈现在人民眼前。书中从美国《信息自由法》说起,其发展历程充满了坎坷,经过各个时期信息自由倡议者的努力,终于出现端倪,并迅速成长,充分体现出美国政府的信息必须被公开,以及个人的隐私必须被保护。人类可以“分析和使用”的数据在大量增加,通过这些数据的交换、整合和分析,人类可以发现新的知识,创造新的价值,带来“大知识”、“大科技”、“大利润”和“大发展”。

《大数据》开篇讲述美国《信息自由法》历经多任总统,其中有支持者,也有反对者,最后终于签发,标志都美国进入信息公开及隐私保护的大数据时代。现如今全世界现有60多个国家制定、实施《信息自由法》。

随着《信息自由法》的颁布,以及现代科技的发展,会产生越来越多的数据。数据主要来源是:1.各行各业通过计算机产生了大量的数据;2. 业务数据3. 民意数据4. 环境数据。并且数据在数量、速度、多样性三个维度迅速增长,促使数据帝国逐渐兴起。

首先,在治国方面。1.循“数”管理,减少交通事故死亡人数。2.用数据进行医疗福利打假,可为政府节省开支。3.警方通过compstat系统,分析犯罪数据,预知犯罪地点。

其次,商务智能方面。1.数据仓库,2.联机分析(olap),3. 数据挖掘,4. 数据可视化。

当然随着数据的增多,如何收集和使用这些数据,就需要制订一系列的法则。1.收集法则:减负;2.使用法则:隐私;3.发布法则:免费,4.管理法则:质量。其中数据质量最为重要,为了保证数据质量颁布了《数据质量法》,同时也带来了困惑,即给商业组织带来了质疑政府公布数据质量的手段,对于这一手段,满足其商业利益,是民主与商业组织之间的对抗和冲突。

同时,统一分析和使用大数据与个人隐私产生的冲突。通过中央数据银行和全国统一id就获得某个人一生的行动,违反了个人隐私法,但不分析这些信息,又可能导致恐怖分子的袭击,最终以保护个人隐私胜利,但政府还是想执行统一身份认证。

奥巴马的上任加速了政府数据开放的进程,奥巴马上任后立即任命首席信息官,由首席信息官在4个月内推出政府大数据网站,在互联网上为民众提供开放的政府数据。阳光基金会和个人利用开放数据开发出各种分析工具,充分体现出数据价值。

但公益组织并不满足开放数据的数量,为了让民众监督一个更为公正透明的政府,公益组织要求公开白宫访客记录,但这并不是一个简单的要求。经过公益组织不懈的努力,白宫终于公开了访客记录,但公益组织发现了更多的问题,白宫也提出将继续修改访客记录的方式。

大数据有效的监督了政府的公正与民主。民主不是一个结果,而是参与的过程,人民要不断的争取才能实现民主。

本书结尾也较详细的描述除美国外,其它各国通过大数据走向民主的进程,充分说明了这一进程是一个大趋势。首先,英国紧随美国后面实施数据开放,虽然晚于美国,但发展飞快,开放的数据量已超过美国。其次,即美、英两国开放数据之后,更多的国家也加入到其中。20xx年9月20日,8个国家宣布成立“开放政府联盟”,要想加入需具备4个条件:1.财政透明,2.信息自由,3.财产公开,4.公民参与。截止20xx年4月25日已有50个国家加入。

在大数据时代,数据就是直接的财富,数据分析和挖掘能力就是国家、企业的核心竞争力。中国应该摘下千百年来差不多先生的标签,尽快赶上西方国家大数据的步伐。

2页,当前第112

大数据读书心得体会精彩例文.doc篇四

早在2007年,人类制造的信息量有史以来第一次在理论上超过可用存储空间总量,近几年两者的剪刀差越来越大。2010年,全球数字规模首次达到了“zb”(1zb=1024tb)级别。2012年,淘宝网每天在线商品数超过8亿件。2013年底,中国手机网民超过6亿户。随着互联网、移动互联网、传感器、物联网、社交网站、云计算等的兴起,我们这个社会的几乎所有方面都已数字化,产生了大量新型、实时的数据。无疑,我们已身处在大数据的海洋。

有两个重要的趋势使得目前的这个时代(大数据时代)与之前有显著的差别:其一,社会生活的广泛数字化,其产生数据的规模、复杂性及速度都已远远超过此前的任何时代;其二,人类的数据分析技术和工艺使得各机构、组织和企业能够以从前无法达到的复杂度、速度和精准度从庞杂的数据中获得史无前例的洞察力和预见性。

大数据是技术进步的产物,而其中的关键是云技术的进步。在云技术中,虚拟化技术乃最基本、最核心的组成部份。计算虚拟化、存储虚拟化和网络虚拟化技术,使得大数据在数据存储、挖掘、分析和应用分享等方面不仅在技术上可行,在经济上也可接受。

大数据(big data)是指那些超过传统数据库系统处理能力的数据。它的数据规模和转输速度要求很高,或者其结构不适合原本的数据库系统。为了获取大数据中的价值,我们必须选择另一种方式来处理它。

数据中隐藏着有价值的模式和信息,在以往需要相当的时间和成本才能提取这些信息。如沃尔玛或谷歌这类领先企业都要付高昂的代价才能从大数据中挖掘信息。而当今的各种资源,如硬件、云架构和开源软件使得大数据的处理更为方便和廉价。即使是在车库中创业的公司也可以用较低的价格租用云服务时间了。

对于企业组织来讲,大数据的价值体现在两个方面:分析使用和二次开发。对大数据进行分析能揭示隐藏其中的信息,例如零售业中对门店销售、地理和社会信息的分析能提升对客户的理解。对大数据的二次开发则是那些成功的网络公司的长项。例如facebook通过结合大量用户信息,定制出高度个性化的用户体验,并创造出一种新的广告模式。这种通过大数据创造出新产品和服务的商业行为并非巧合,谷歌、雅虎、亚马逊和facebook,它们都是大数据时代的创新者。

第一层关系:数据与机器的关系。大数据纪元刚开始,产业界碰到的第一个核心问题就是“大”的问题。做了几十年的数据仓库甚至海量并行处理的数据库都不能处理那么大的数据,怎么办?需要范式切换。主要有三个方面,新型的数据与机器关系当中的第一条就是重新考虑架构与算法,重新考虑舍得,有舍才能得,天下没有免费的午餐,所以必须要舍弃一些,得到一些新的。必须舍弃贵族化的高端小型机和unix服务器,得到平民化的更大量的x86服务器。通过这样一种可横向、可水平扩展服务器处理每两年翻番的数据量的挑战。第二个舍得是舍弃硬件的可靠性和可用性,得到软件的可靠性和可用性。这也就是谷歌三大论文以及hadoop的核心重点。第三个舍得是舍弃传统数据库的强一致性,获得更放松一致性、可扩展架构,如nosql。第四个舍得是传统算法强调非常严格的精确性,现在要放弃一些精确性,通过近似、采样这种方式来获得更好的扩展性。

最早大数据的处理范式是mapreduce的批量处理,英特尔慢慢有其他的需求,实时的流处理、多迭代的处理、图计算、即时查询等等新的范式百花齐放,最后万法归宗。刚才王斌老师将讲的sap的hana本身就是数据管理和分析的融合,现在非常流行的hadoop之后的spark,就是把前面的各种范式进行了融合。存储与内存的消长,大数据第一个要解决把数据存储下来,后来发现要把它放到大的内存里进行处理,获得实时性,接着在存储和内存之间现在又出现了闪存,有闪存化甚至全闪存的存储,也有闪存化的内存,把所有的计算在闪存里面处理,已经被微软、facebook等等大量使用。大家可以预期,两年以后出现新的非易失性的闪存,它的速度可能要比闪存快几百倍,和内存相似,这又会极大地颠覆数据与机器的关系。

第二层关系:数据与人的关系。主要是价值的觉醒,如果数据不能产生价值它可能是负面资产。数据怎么能够给人带来价值?我们介绍一下它的价值维度,把它映射到二维的时空象限里,用六个关键词来描述它。第一是“volume”,两个关键词,小数据见微对个人进行刻划,大数据知著能够了解宏观规律,它是空间概念,同时也是时间概念,数据刚刚产生的时候,它的个性化价值、见微的价值最大,而随着时间的推移,它渐渐退化到只有集合价值。第二是velocity,时间轴的原点是当下实时价值,副轴是过往,正轴是预测未来,如果知道知前后就能够做到万物的皆明。第三是variety,多源异质的数据,能够过滤噪声、查漏补缺、去伪存真,就是辩讹。还有晓意,能够从大量的非结构化数据中获得语意,从而能够使机器窥探人的思维境界,这六个价值维度怎么去实现?主要是两部分人,一是数据科学家要洞察数据,另外一个是终端用户和领域专家要去解读数据并利用数据。首先看洞察数据,数据科学,人和机器作用发生了消长,讲个例子,机器学习大家觉得是机器的问题,其实人在里面起到很重要的作用,尤其是机器学习是模型加特征,而特征工程是一个人力工程,你要有经验非常丰富的特征团队去死磕特征,找出更好、更多的特征,才能够使机器学习的效果更好。但是现在深度学习这些新技术出来,能够用机器学习特征,能够在大量非结构化数据中找到丰富的信息维度用特征表达出来,这远远超出了人的能力。大家知道黑客帝国描述了一个场景,人脑袋后面插一个插头,给机器提供营养,我可能不会那么悲观,但是像这样的互动关系以一种更良性的方式出现了,现在人的一言一行、社交行为、金融行为都已经成为机器的养料、机器的数据,使得机器获得更好的洞察。

终端用户需要更好地、更傻瓜化的分析工具和可视化工具,两年前我去参加大数据的会,基本上都是hadoop和nosql现在大家参加大数据会可以看到清一色的分析工具和可视化工具。大数据跟各行各业的化学作用正在发生。如果马化腾说“互联网+”是互联网与各行各业的加法效应,那么大数据将与各行各业产生乘法效应。

第三个关系,数据与数据的关系。现在只有海面平的数据是搜索引擎可以检索到,深海的数据可能是黑暗的数据,在政府、在企业里大家看不到。我们怎么办呢?必须让数据发现数据。只有让数据能够发现数据、遇到数据,才能产生金风玉露一相逢、便胜却人间无数的效果。这里有三个重要的观念,需要法律、技术、经济理论和实践上配合。法律上要明确数据的权利,数据所有权,数据的隐私权,什么数据不能给你看;数据的许可权,什么数据是可以给你看的;数据的审计权,我给你看了以后,你是不是按照许可的范围去看;数据的分红权。数据像原油又不同于原油,原油用完了就没有了,数据可以反复地产生价值,因此数据的拥有者应该得到分红。我们要保证数据的开放、共享、交易。公共数据和部分科研数据要开放,开放过程中注意保护隐私。企业之间可以进行数据的点对点共享,最高境界是不丢失数据的所有权和隐私权的前提下共享,这里有多方安全计算的概念。1982年姚期智老先生提出了百万富翁的窘境的问题,两个百万富翁他们想要比谁更富,但是谁都不愿意说出来自己都多少钱,在我们的数据共享当中要通过各种各样的技术达到这样的效果。还有数据交易,建立多边多边平台来支持数据交易。

互联网能发展起来经济学理论和实践是很重要的支撑,梅特卡夫定律决定了一个互联网公司的价值,跟它用户数的平方成正比,又比如说谷歌请最好的经济学家,它的一个广告业务的核心就是建立在一个非常先进的拍卖经济学的模型基础上。数据经济也需要这样一些基础的理论,比如数据定价和信息定价不一样,信息做一个咨询报告5000美金卖给你,可以卖给所有人。但数据对不同的单位价值不一样,可能我之毒药是彼之蜜糖。另外估值,一个企业拥有大量的数据,是无形资产的一部分,对于企业的市场价值带来了多大的增长。

1.3 大数据的四个特性

大数据是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。这也是一个描述性的定义,在对数据描述的基础上加入了处理此类数据的一些特征,用这些特征来描述大数据。当前,较为统一的认识是大数据有四个基本特征: 数据规模大(volume),数据种类多(variety),数据要求处理速度快(velocity),数据价值密度低(value),即所谓的四v 特性。

数据规模大(volume):企业面临着数据量的大规模增长。例如,idc最近的报告预测称,到2020年,全球数据量将扩大50倍。目前,大数据的规模尚是一个不断变化的指标,单一数据集的规模范围从几十tb到数pb不等。简而言之,存储1pb数据将需要两万台配备50gb硬盘的个人电脑。此外,各种意想不到的来源都能产生数据。

数据种类多(variety):一个普遍观点认为,人们使用互联网搜索是形成数据多样性的主要原因,这一看法部分正确。然而,数据多样性的增加主要是由于新型多结构数据,以及包括网络日志、社交媒体、互联网搜索、手机通话记录及传感器网络等数据类型造成。其中,部分传感器安装在火车、汽车和飞机上,每个传感器都增加了数据的多样性。

处理速度快(velocity):高速描述的是数据被创建和移动的速度。在高速网络时代,通过基于实现软件性能优化的高速电脑处理器和服务器,创建实时数据流已成为流行趋势。企业不仅需要了解如何快速创建数据,还必须知道如何快速处理、分析并返回给用户,以满足他们的实时需求。根据ims research关于数据创建速度的调查,据预测,到2020年全球将拥有220亿部互联网连接设备。

数据价值密度低(value):大数据具有多层结构,这意味着大数据会呈现出多变的形式和类型。相较传统的业务数据,大数据存在不规则和模糊不清的特性,造成很难甚至无法使用传统的应用软件进行分析。传统业务数据随时间演变已拥有标准的格式,能够被标准的商务智能软件识别。目前,企业面临的挑战是处理并从各种形式呈现的复杂数据中挖掘价值。

除了有四个特性之外,大数据时代的数据还呈现出其他三个特征。

第一个特征是数据类型繁多。包括网络日志、音频、视频、图片、地理位置信息等等,多类型的数据对数据的处理能力提出了更高的要求.第二个特征是数据价值密度相对较低。如随着物联网的广泛应用,信息感知无处不在,信息海量,但价值密度较低,如何通过强大的机器算法更迅速地完成数据的价值“提纯”,是大数据时代亟待解决的难题。

第三个特征是处理速度快,时效性要求高。这是大数据区分于传统数据挖掘最显著的特征。

2 大数据的技术与处理

2.1 大数据的技术

1.数据采集:etl工具负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。

2.数据存取:关系数据库、nosql、sql等。

3.基础架构:云存储、分布式文件存储等。

学(computational linguistics。一方面它是语言信息处理的一个分支,另一方面它是人工智能(ai, artificial intelligence)的核心课题之一。

5.统计分析:假设检验、显著性检验、差异分析、相关分析、t检验、方差分析、卡方分析、偏相关分析、距离分析、回归分析、简单回归分析、多元回归分析、逐步回归、回归预测与残差分析、岭回归、logistic回归分析、曲线估计、因子分析、聚类分析、主成分分析、因子分析、快速聚类法与聚类法、判别分析、对应分析、多元对应分析(最优尺度分析)、bootstrap技术等等。

则(affinity grouping or aociation rules)、聚类(clustering)、描述和可视化、description and visualization)、复杂数据类型挖掘(text, web ,图形图像,视频,音频等)。

7.模型预测:预测模型、机器学习、建模仿真。

8.结果呈现:云计算、标签云、关系图等。

2.2 大数据的处理

1.采集 大数据的采集是指利用多个数据库来接收发自客户端(web、app或者传感器形式等)的数据,并且用户可以通过这些数据库来进行简单的查询和处理工作。比如,电商会使用传统的关系型数据库mysql和oracle等来存储每一笔事务数据,除此之外,redis和mongodb这样的nosql数据库也常用于数据的采集。

在大数据的采集过程中,其主要特点和挑战是并发数高,因为同时有可能会有成千上万的用户来进行访问和操作,比如火车票售票网站和淘宝,它们并发的访问量在峰值时达到上百万,所以需要在采集端部署大量数据库才能支撑。并且如何在这些数据库之间进行负载均衡和分片的确是需要深入的思考和设计。

2.导入/预处理

虽然采集端本身会有很多数据库,但是如果要对这些海量数据进行有效的分析,还是应该将这些来自前端的数据导入到一个集中的大型分布式数据库,或者分布式存储集群,并且可以在导入基础上做一些简单的清洗和预处理工作。也有一些用户会在导入时使用来自twitter的storm来对数据进行流式计算,来满足部分业务的实时计算需求。导入与预处理过程的特点和挑战主要是导入的数据量大,每秒钟的导入量经常会达到百兆,甚至千兆级别。

3.统计/分析

统计与分析主要利用分布式数据库,或者分布式计算集群来对存储于其内的海量数据进行普通的分析和分类汇总等,以满足大多数常见的分析需求,在这方面,一些实时性需求会用到emc的greenplum、oracle的exadata,以及基于mysql的列式存储infobright等,而一些批处理,或者基于半结构化数据的需求可以使用hadoop。统计与分析这部分的主要特点和挑战是分析涉及的数据量大,其对系统资源,特别是i/o会有极大的占用。

4.挖掘

与前面统计和分析过程不同的是,数据挖掘一般没有什么预先设定好的主题,主要是在现有数据上面进行基于各种算法的计算,从而起到预测(predict)的效果,从而实现一些高级别数据分析的需求。比较典型算法有用于聚类的kmeans、用于统计学习的svm和用于分类的naivebayes,主要使用的工具有hadoop的mahout等。该过程的特点和挑战主要是用于挖掘的算法很复杂,并且计算涉及的数据量和计算量都很大,常用数据挖掘算法都以单线程为主。

整个大数据处理的普遍流程至少应该满足这四个方面的步骤,才能算得上是一个比较完整的大数据处理。

3 大数据的应用

正如诸多文献所谈到的,大数据对许多行业的影响和冲击已经呈现。例如,商零售、物流、医药、文化产业等。金融,作为现代经济中枢,其实也已透出了大数据金融的曙光。

过去的2013年,中国金融界热议最多的或许是互联网金融,更有人指出2013年是中国互联网金融元年。确实,第三方支付、p2p、网贷、众筹融资、余额宝、微信支付等发展迅速。众多传统金融业者也或推出自己的电商平台,或与互联网企业联手提供相应的金融产品和服务。

互联网金融,无论是业界、监管者或理论界,都在试图给出自己的理解和定义。但到目前为止,尚未有一个统一的、规范的概念。在我看来,互联网金融本来就是一个不确切的概念,也不可能有一个明确的定义。严格说来,所谓互联网金融只是大数据金融的一种展现或形态。换言之,前者是表,后者是里。

这是因为,无论是互联网还是金融业,其实质都是大数据(信息)。首先,对互联网企业而言,流量、客户等数据(信息)是其涉足金融业的基石。对金融企业而言,提供中介服务,撮合金融交易也是以数据(信息)为基础。其次,没有大数据技术的支撑,所谓互联网金融也难以快速、持续成长。20世纪90年代互联网浪潮的蓬勃兴起,至今已近二十年。但从世界范围看,所谓互联网金融却发展缓慢。当然,其中原因很多,但其主要原因则是大数据技术是近几年才快速发展起来的。最后,从金融企业来看,在数据中心建设,软硬件系统建设,数据(信息)挖掘、分析等方面也是做得有声有色,其庞大的客户数据、海量交易记录及众多信息源,使其在大数据应用方面也做了许多积极探索。因此,要准确反映近年新金融趋势,“大数据金融”比“互联网金融”更为贴切。

4 大数据应用中的三大难题 近年来,大数据这个词成为互联网领域关注度最高的词汇,时至今日,大数据已经不再是it圈的“专利”了,从去年的春晚,到刚刚过去的两会,都能见到它的身影,但实际上春晚与两会的数据都只能叫做小数据,它与真正的大数据还相差甚远。即便如此,数据所产生的价值已经被人们所认知。

就大数据来说,它的发展可以分成三个阶段,第一个阶段是组织内部的数据,这些数据通常都是结构化的数据,我们一般将这些数据进行分类、排序等操作,将相同类型的数据进行对比、分析、挖掘,总而言之基本上都是统计工作。到了第二阶段,数据的范围扩大到行业内,各种各样的应用数据出现,数据量大规模增长,尤其是非结构化数据的出现。典型的像视频、图片这一类的数据,在这一阶段的特点就是非结构化和结构化数据并存,且数据量巨大,要对这些数据进行分析是我们目前现阶段所处在的状态。

第三阶段则是未来大数据发展的理想化状态,首先它一定是跨行业的,且数据的范围是整个社会。通过对这些数据进行分析加以使用,将直接改变我们的生活方式,这也是现在很多企业所设想的未来交通、医疗、教育等领域的发展方向。

第三个阶段是我们所憧憬的,但在我们所处的第二阶段面对的更多是问题。其中的一个问题就是“大”。大数据给人最直观的感受就是大,它所带来的问题不仅仅是存储,更多的是庞大的数据没办法使用,以交通为例,从2001年开始在北京的主干道上都增设了一些卡口设备,到了今天基本上大街小巷都能看到。这些设备每天所拍摄的视频及照片产生的数据量是惊人的,仅照片每天就能产生2千万张,而解决这些数据的存储只是最基本的任务,我们更需要的是使用这些数据。例如对套牌车辆的检查,对嫌疑车辆的监控,当你想要使用这些数据的时候,传统的数据库以及系统架构,放进这么庞大的数据,是根本跑不动的。这一问题导致很多企业对大数据望而却步。

说到大数据的使用,自然离不开hadoop,hadoop本身提供了分布式系统中两个最重要的东西:分布式存储(hdfs)和分布式计算(mapreduce)。这两者解决了处理大数据面临的计算和存储问题,但更为重要的是,为开发大数据应用开辟了道路。hadoop是目前解决大数据问题最流行的一种方式,但其仍然有不成熟的地方,曾作为雅虎云计算以及facebook软件工程师的jonathan gray就表示:“hadoop实施难度大,且复杂,如果不解决技术复杂性问题,hadoop将被自己终结。”正是由于这样的原因,gray创办了自己的公司——continuuity,这家公司的目标就是在hadoop和hbase基础上创建一个抽象层,屏蔽掉hadoop底层技术的复杂性。由此可见想要用好大数据又是一大考验。

3.大数据太贵用不起

hadoop的特点就是让你可以使用廉价的x86设备来完成大数据的业务,但事实上如果你真想要用它来完成某些商业任务你还得是个“土豪”。在国外那些使用大数据的成功案例里,亚马逊曾给出过这样一组数字,nasa需要为45天的数据存储服务支付超过100万美元。像quant___cast这样的数字广告公司,同样也是花费了巨额的资金用在hadoop技术上,来根据自己的需求定制系统。从上面两个案例来看用于商业用途的大数据现阶段还是很费钱的,随着大数据软件环境逐渐成熟,开发工具增多,价格在未来会逐渐降低。

从上面罗列的这三点困难,其实并不是要给大数据泼冷水,而是想说大数据想要淘金并不简单,首先在做大数据之前,好好盘点一下自己拥有的资源,不仅仅是数据资源,还包括知识与技能。确定了自己的能力之后,选择一个能够发挥你现有资源最大价值的项目。如果你需要帮手,应先考虑商业顾问,再考虑技术人才。为了解答一个生意上的困惑花下的钱,叫作投资,而把钱投到一个拥有特殊技能的it人才身上,那就叫沉没成本。当你有了这些之后,选择更灵活且可扩展的工具,为以后的扩充打好基础。更重要的是——从小规模做起。

计算机科学与技术的发展使得大规模信息处理基础设施产生重要改变。在过去的30年中,经典的数据库管理系统(dbms)在处理大规模数据方面与时俱进,在企业数据处理等方面得到广泛应用。数据库研究和技术进展主要集中在数据建模、描述性查询语言、事务处理和数据库可靠性等。在这个过程中,相关的数据仓库和数据挖掘分析技术也成为一个热点研究方向;人们认识到数据处理过程中的信息可以被有效整理和分析来支持以数据为中心的决策支持。数据库管理系统在目前的互联网时代继续占据了重要地位。在一个典型的互联网服务系统架构中,数据库管理系统和web服务器及应用服务共同作用,为互联网用户提供各类信息和服务。在这个系统架构中,人们期望系统能支持无限次和高速的互联网用户访问,这个时候数据库层由于在硬件可扩展性上面的不足可能成为系统性能瓶颈。这个挑战我们称为大数据问题(big data problem)。大数据系统期望能对大规模异构复杂数据建模,进行实时分析;传统的商用数据库系统很难提供良好的解决方案。另一个大数据相关的挑战是服务器端数据中心的数据维护及安全隐私问题。近年来云计算技术已经成为大数据中心的一种可靠解决方案,google, yahoo and microsoft等公司也纷纷开发自己的云计算系统。尽管云计算在互联网应用中已经体现出很多优越性,其在系统成熟性、可用性等方面还有很大提高空间。

显而易见,大数据领域的大规模数据管理和复杂数据分析已经成为新的研究前沿。目前的各类大数据应用正是大数据研究的驱动力,比如社会网络、移动计算、科学应用等等。这些应用产生的大数据往往具有海量、时序动态性、多样等特性,给数据库领域的各项技术带来巨大挑战,涵盖包括数据获取、组织管理、分析处理和应用呈现等整个数据管理生命周期。针对数据管理和分析不同系统应用,各类大数据处理技术在也不断发展。mapreduce作为一种分布式的数据处理框架由于其灵活性、可扩展性、高效和容错等特性其近年来得到了广泛应用。此外,也有多类其他分布式数据处理系统用来解决mapreduce不擅长的问题,比如交互式分析、图计算和分析、实时和流处理、通用数据处理等等。大数据不但给数据库研究领域,同时也给体系结构、存储系统、系统软件和软件工程等计算机多个学科带来了很多机会和挑战。大数据正是目前很多计算机科学问题的根本,并驱动众多新科技的发展。

6 大数据的发展前景

大数据的概念来源于、发展于美国,并向全球扩展,必将给我国未来的科技与经济发展带来深远影响。根据idc 统计,目前数据量在全球比例为: 美国32%、西欧19%、中国13%,预计到2020 年中国将产生全球21% 的数据,我国是仅次于美国的数据大国,而我国大数据方面的研究尚处在起步阶段,如何开发、利用保护好大数据这一重要的战略资源,是我国当前亟待解决的问题。

而大数据未来的发展趋势则从以下几个方面进行:

(1)开放源代码

大数据获得动力,关键在于开放源代码,帮助分解和分析数据。hadoop 和nosql 数据库便是其中的赢家,他们让其他技术商望而却步、处境很被动。毕竟,我们需要清楚怎样创建一个平台,既能解开所有的数据,克服数据相互独立的障碍,又能将数据重新上锁。

(2)市场细分

当今,许多通用的大数据分析平台已投入市场,人们同时期望更多平台的出现,可以运用在特殊领域,如药物创新、客户关系管理、应用性能的监控和使用。若市场逐步成熟,在通用分析平台之上,开发特定的垂直应用将会实现。但现在的技术有限,除非考虑利用潜在的数据库技术作为通用平台(如hadoop、nosql)。人们期望更多特定的垂直应用出现,把目标定为特定领域的数据分析,这些特定领域包括航运业、销售业、网上购物、社交媒体用户的情绪分析等。同时,其他公司正在研发小规模分析引擎的软件套件。比如,社交媒体管理工具,这些工具以数据分析做为基础。

(3)预测分析

大数据正在以不可阻拦的磅礴气势,与当代同样具有革命意义的最新科技进步(如纳米技术、生物工程、全球化等)一起,揭开人类新世纪的序幕。可以简单地说,以往人类社会基本处于蒙昧状态中的不发展阶段,即自然发展阶段。现在,这一不发展阶段随着2012年的所谓“世界末日”之说而永远成为了过去。大数据宣告了21世纪是人类自主发展的时代,是不以所谓“上帝”的意志为转移的时代,是“上帝”失业的时代。

对于地球上每一个普通居民而言,大数据有什么应用价值呢?只要看看周围正在变化的一切,你就可以知道,大数据对每个人的重要性不亚于人类初期对火的使用。大数据让人类对一切事物的认识回归本源;大数据通过影响经济生活、政治博弈、社会管理、文化教育科研、医疗保健休闲等等行业,与每个人产生密切的联系。

大数据技术离你我都并不遥远,它已经来到我们身边,渗透进入我们每个人的日常生活消费之中,时时刻刻,事事处处,我们无法逃遁,因为它无微不至:它提供了光怪陆离的全媒体,难以琢磨的云计算,无法抵御的仿真环境。大数据依仗于无处不在的传感器,比如手机、发带,甚至是能够收集司机身体数据的汽车,或是能够监控老人下床和行走速度与压力的“魔毯”(由ge与intel联合开发),洞察了一切。通过大数据技术,人们能够在医院之外得悉自己的健康情况;而通过收集普通家庭的能耗数据,大数据技术给出人们切实可用的节能提醒;通过对城市交通的数据收集处理,大数据技术能够实现城市交通的优化。随着科学技术的发展,人类必将实现数千年的机器人梦想。早在古希腊、古罗马的神话中就有冶炼之神用黄金制造机械仆人的故事。《论衡》中也记载有鲁班曾为其母巧公制作一台木马车,“机关具备,一驱不还”。而到现代,人类对于机器人的向往,从机器人频繁出现在科幻小说和电影中已不难看出。公元2035年,智能型机器人已被人类广泛利用,送快递、遛狗、打扫卫生……这是电影《我,机器人》里描绘的场景。事实上,今天人们已经享受到了部分家用智能机器人给生活带来的便利。比如,智能吸尘器以及广泛应用于汽车工业领域的机器手等等。有意思的是,2010年松下公司专门为老年人开发了“洗发机器人”,它可以自动完成从涂抹洗发水、按摩到用清水洗净头发的全过程。未来的智能机器人不会是电影《变形金刚》中的庞然大物,而会越来越小。目前,科学家研发出的智能微型计算机只和雪花一样大,却能够执行复杂的计算任务,将来可以把这些微型计算机安装在任何物件上用以监测环境和发号施令。随着大数据时代的到来和技术的发展,科技最终会将我们带进神奇的智能机器人时代。

在大数据时代,人脑信息转换为电脑信息成为可能。科学家们通过各种途径模拟人脑,试图解密人脑活动,最终用电脑代替人脑发出指令。正如今天人们可以从电脑上下载所需的知识和技能一样,将来也可以实现人脑中的信息直接转换为电脑中的图片和文字,用电脑施展读心术。2011年,美国军方启动了“读心头盔”计划,凭借读心头盔,士兵无需语言和手势就可以互相“阅读”彼此的脑部活动,在战场上依靠“心灵感应”,用意念与战友互通讯息。目前,“读心头盔”已经能正确“解读”45%的命令。随着这项“读心术”的发展,人们不仅可以用意念写微博、打电话,甚至连梦中所见都可以转化为电脑图像。据美国《纽约时报》报道,奥巴马政府将绘制完整的人脑活动地图,全面解开人类大脑如何思考、如何储存和检索记忆等思维密码作为美国科技发展的重点,美国科学家已经成功绘出鼠脑的三维图谱。2012年,美国ibm计算机专家用运算速度最快的96台计算机,制造了世界上第一个“人造大脑”,电脑精确模拟大脑不再是痴人说梦。试想一下,如果人类大脑实现了数据模拟,或许你的下一个boss是机器人也不一定。

总而言之,大数据技术的发展有可能解开宇宙起源的奥秘。因为,计算机技术将一切信息无论是有与无、正与负,都归结为0与1,原来一切存在都在于数的排列组合,在于大数据。

大数据读书心得体会精彩例文.doc篇五

自从计算机技术的不断发展,人们逐渐感受到网络给人们的日常生活带来的便利,同时也逐渐变得愈加依赖网络。但是,随之而来的网络安全问题也日渐突出,开始成为不得不防范和处理的重大难题。网络的安全建设管理决定着人们的网上隐私和个人电脑信息安全,一旦个人网上信息泄漏,那么不但会造成个人隐私权受到侵害,甚至还会给企业和国家带来巨大的损失,所以强化网络安全管理建设十分重要,而网络安全数据可视化技术正是科研者们针对网络安全问题而研发的防护技术,对提升人们的网络安全提供了重要的帮助。

伴随着科技发展速度的持续加快,人们社会生产生活的各个领域都开始广泛的应用计算机网络技术。计算机信息技术具有广泛、开放、联结的特点,给我们的生活带来了便利,因此也在信息传输的私密性和质量方面隐藏着许多安全问题。信息安全问题不容小觑,小则个人用户隐私泄露,大则国家机密失窃。基于此,研究计算机网络信息与安全的防护策略于国于民都具有相当重大的意义。当前网络安全数据可视化技术则是重要的网络安全防护手段,研究这一技术对于人们的网络安全而言具有重要的意义。

网络安全这一概念的形成在国内的历史并不长,是最近几年人们才开始逐渐意识到的问题。这是因为国内的计算机网络技术的发展起步较晚,虽然发展迅速,但是人们主要将重点集中在网络技术的研发上,而网络安全方面则常常处于被忽略的地位。但是随着网络安全案件的频繁发生,使得人们使用网络的安全性受到严重影响,而且网上办公的逐渐普及,一旦网络安全得不到保障,就会使得国民经济严重受损。正因如此,国内开始逐渐加强对网络安全防护技术的重视。以往的网络安全技术由于其日志信息的可视化因为自身性质而存在一定的局限,并且时效性太差,日志信息上传的过程需要耗费的时间太长,不能满足当前以高效率、快速度为特征的网络要求。并且,还存在一些较为实际的问题,在检测的过程中,日志信息可能会出现变化,这样一来检测结果的精确度就会大大降低。此外,数据分析人员在研究日志数据时,也存在一些问题。例如,管理部门传输的警报信号过多,导致管理人员的工作量极大,若是使用旧式的网络安全技术就会不能及时全面的解决和处理警报问题,导致网络安全得不到保障。因为以前的网络安全技术存在上述种种缺陷,所以为了提升网络的安全性,一些技术人员研究发现了一种以数据流为基础的网络可视化的安全防护方法,这一技术能够实现对网络流量的24小时监控,从而使网络数据的安全变得可视化。网络安全数据可视化技术的原理在于将可视化技术连同网络安全态势二者进行合理融合,从而能够更加高效的提升网络外部环境的可靠性以及安全性。

2.1科学计算可视化

这一应用最初是由美国的一位专家所提出,当前在计算机的图形领域得到了很好的应用。科学计算可视化的理论基础为将规模较大的数据转变成为能够被人更加容易理解、更加具有直观性的图形或者图像,这一信息表现方式可以使人们能够更加直接的理解一些较为复杂的现象。并且,还具有计算以及模拟的视觉交互功能,操作起来简单便捷,并有着高效的网络安全防护能力。在计算机技术的持续发展背景下,这一技术具有广阔的应用前景,将来计算机图形学一定能够得到更好的发展,而科学计算可视化技术也将得到更好的完善。

2.2信息可视化

信息可视化与人们平日的生产生活活动具有重要的联系,对于网络安全数据可视化而言具有十分重要的地位。计算机科学技术的发展,促进了信息可视化技术的提升,同时也是当前计算机技术领域内的重点研究对象。计算机可视化即指使用计算机技术将内容结构十分复杂难懂的信息进行简化,使其能够用一种更加直观的方式表现处理,信息可视化技术是由多种学科知识的综合所得。由于当前网络信息呈现爆发式增长的状态,造成信息的数量愈来愈庞大,复杂的、多余的信息使得人们甄选出的`想要信息的效率越来越低,造成严重的信息危机。但是信息可视化的使用能够有效的处理上述问题,因为其具有能够将复杂的信息转变成直观、易懂的信息,从而降低了人们获取信息的难度,给人们的信息处理和查找带来了便利。

2.3数据挖掘和可视化

数据挖掘可视化即在海量的数据中搜寻获得时效性好、潜能强且有效的信息。使用数据挖掘技术来获取信息主要依照下述步骤:数据管理、数据存储、数据分析、数据转换、数据挖掘、价值评价、数据显示。其在搜寻数据的同时能够与知识库以及使用者之间进行互动,从而使其获得数据更加具有正对性。数据可视化技术能够使用分析和观察数据表格的方式来获取想要的信息,能够更加全面的分析数据的内在含义,从而据此准确发现网络中存在的异常状况。数据可视化的使用能够使使用者更加直接的了解数据信息,同时分析数据的功能也比较强大,从而使用户获得更好的使用体验。

2.4安全数据可视化

网络安全数据的可视化的原理与信息可视化类似,都是通过将海量、复杂的信息使用简单、易懂的图像形式表达出来,再安排专门的技术分析人员使用评价、分析、交互的方式对这些数据进行处理,从中获取数据中含有的网络安全信息,以此达成网络安全数据的可视化处理,使得网络安全得到保障。

使用网络安全数据可视化技术能够使得网络安全程度得到提升,从而减少网络信息泄漏、网络攻击等事件的发生。当前,国内的网络安全形式并不乐观,时常出现网络病毒扩散、端口扫描、服务器被攻击等安全事故,这时网络数据流量会显示异常。所以,可以对网络流量进行实时监控,这样能够更好的防范网络安全,实现网络安全的最大化。用户在使用网络时可能会遇到网络电脑高手,电脑高手若是发动网络袭击,就会使得用户的私人信息被窃取。而对于企业公司而言,网络上存有公司的许多机密文件和信息,一旦被窃取或者因网络袭击而丢失都会给自身带来严重的经济损失。由此可见,电脑高手的存在使得网络的安全性降低,恶化了网络环境,对于网络的安全使用带来了严重的威胁。因此,网络技术安全防护人员需要寻找解决方法,阻止电脑高手的恶意行为,从而使得用户的网络安全得到保护,避免人们的隐私权受到侵害。技术人员通常会使用入侵系统对网络环境进行分析和探究,判断其中是否存在病毒或者漏洞,然后将获得的信息传递至分析人员,分析人员依照这些信息数据对网络系统进行病毒库升级和漏洞修复,从而使得网络安全得到提升,使网络安全数据可视化进一步加强。

社会信息化发展已是大势所趋,网络安全防护日益重要。只有在保证网络安全的情况下,信息化社会才能更好更稳健更长远的发展。因此我们应加大对网络安全防护的重视,在日常生活中加强网络安全防护意识,积极采取防范措施,减少漏洞的产生,更加良好的了解和应用网络安全数据可视化,并对这一技术进行不断的优化和改进,从而避免潜在危险影响到人们的网络安全,使人们的权益得到更加全面的保护。

大数据读书心得体会精彩例文.doc篇六

;

大数据心得体会

早在2007年,人类制造的信息量有史以来第一次在理论上超过可用存储空间总量,近几年两者的剪刀差越来越大。2010年,全球数字规模首次达到了“zb”(1zb=1024tb)级别。2012年,淘宝网每天在线商品数超过8亿件。2013年底,中国手机网民超过6亿户。随着互联网、移动互联网、传感器、物联网、社交网站、云计算等的兴起,我们这个社会的几乎所有方面都已数字化,产生了大量新型、实时的数据。无疑,我们已身处在大数据的海洋。

有两个重要的趋势使得目前的这个时代(大数据时代)与之前有显著的差别:其一,社会生活的广泛数字化,其产生数据的规模、复杂性及速度都已远远超过此前的任何时代;其二,人类的数据分析技术和工艺使得各机构、组织和企业能够以从前无法达到的复杂度、速度和精准度从庞杂的数据中获得史无前例的洞察力和预见性。

大数据是技术进步的产物,而其中的关键是云技术的进步。在云技术中,虚拟化技术乃最基本、最核心的组成部份。计算虚拟化、存储虚拟化和网络虚拟化技术,使得大数据在数据存储、挖掘、分析和应用分享等方面不仅在技术上可行,在经济上也可接受。

在人类文明史上,人类一直执着探索我们处的世界以及人类自身,一直试图测量、计量这个世界以及人类自身,试图找到隐藏其中的深刻关联、运行规律及终极答案。大数据以其人类史上从未有过的庞大容量、极大的复杂性、快速的生产及经济可得性,使人类第一次试图从总体而非样本,从混杂性而非精确性,从相关关系而非因果关系来测量、计量我们这个世界。人类的思维方式、行为方式及社会生活的诸多形态(当然包括商业活动)正在开始发生新的变化。或许是一场革命性、颠覆性的变化。从这个意义上讲,大数据不仅是一场技术运动,更是一次哲学创新。

1 大数据的概述

1.1 大数据的概念

大数据(big data)是指那些超过传统数据库系统处理能力的数据。它的数据规模和转输速度要求很高,或者其结构不适合原本的数据库系统。为了获取大数据中的价值,我们必须选择另一种方式来处理它。

数据中隐藏着有价值的模式和信息,在以往需要相当的时间和成本才能提取这些信息。如沃尔玛或谷歌这类领先企业都要付高昂的代价才能从大数据中挖掘信息。而当今的各种资源,如硬件、云架构和开源软件使得大数据的处理更为方便和廉价。即使是在车库中创业的公司也可以用较低的价格租用云服务时间了。

对于企业组织来讲,大数据的价值体现在两个方面:分析使用和二次开发。对大数据进行分析能揭示隐藏其中的信息,例如零售业中对门店销售、地理和社会信息的分析能提升对客户的理解。对大数据的二次开发则是那些成功的网络公司的长项。例如facebook通过结合大量用户信息,定制出高度个性化的用户体验,并创造出一种新的广告模式。这种通过大数据创造出新产品和服务的商业行为并非巧合,谷歌、雅虎、亚马逊和facebook,它们都是大数据时代的创新者。

1.2 大数据的三层关系

第一层关系:数据与机器的关系。大数据纪元刚开始,产业界碰到的第一个核心问题就是“大”的问题。做了几十年的数据仓库甚至海量并行处理的数据库都不能处理那么大的数据,怎么办?需要范式切换。主要有三个方面,新型的数据与机器关系当中的第一条就是重新考虑架构与算法,重新考虑舍得,有舍才能得,天下没有免费的午餐,所以必须要舍弃一些,得到一些新的。必须舍弃贵族化的高端小型机和unix服务器,得到平民化的更大量的x86服务器。通过这样一种可横向、可水平扩展服务器处理每两年翻番的数据量的挑战。第二个舍得是舍弃硬件的可靠性和可用性,得到软件的可靠性和可用性。这也就是谷歌三大论文以及hadoop的核心重点。第三个舍得是舍弃传统数据库的强一致性,获得更放松一致性、可扩展架构,如nosql。第四个舍得是传统算法强调非常严格的精确性,现在要放弃一些精确性,通过近似、采样这种方式来获得更好的扩展性。

最早大数据的处理范式是mapreduce的批量处理,英特尔慢慢有其他的需求,实时的流处理、多迭代的处理、图计算、即时查询等等新的范式百花齐放,最后万法归宗。刚才王斌老师将讲的sap的hana本身就是数据管理和分析的融合,现在非常流行的hadoop之后的spark,就是把前面的各种范式进行了融合。

存储与内存的消长,大数据第一个要解决把数据存储下来,后来发现要把它放到大的内存里进行处理,获得实时性,接着在存储和内存之间现在又出现了闪存,有闪存化甚至全闪存的存储,也有闪存化的内存,把所有的计算在闪存里面处理,已经被微软、facebook等等大量使用。大家可以预期,两年以后出现新的非易失性的闪存,它的速度可能要比闪存快几百倍,和内存相似,这又会极大地颠覆数据与机器的关系。

第二层关系:数据与人的关系。主要是价值的觉醒,如果数据不能产生价值它可能是负面资产。数据怎么能够给人带来价值?我们介绍一下它的价值维度,把它映射到二维的时空象限里,用六个关键词来描述它。第一是“volume”,两个关键词,小数据见微对个人进行刻划,大数据知著能够了解宏观规律,它是空间概念,同时也是时间概念,数据刚刚产生的时候,它的个性化价值、见微的价值最大,而随着时间的推移,它渐渐退化到只有集合价值。第二是velocity,时间轴的原点是当下实时价值,副轴是过往,正轴是预测未来,如果知道知前后就能够做到万物的皆明。第三是variety,多源异质的数据,能够过滤噪声、查漏补缺、去伪存真,就是辩讹。还有晓意,能够从大量的非结构化数据中获得语意,从而能够使机器窥探人的思维境界,这六个价值维度怎么去实现?主要是两部分人,一是数据科学家要洞察数据,另外一个是终端用户和领域专家要去解读数据并利用数据。首先看洞察数据,数据科学,人和机器作用发生了消长,讲个例子,机器学习大家觉得是机器的问题,其实人在里面起到很重要的作用,尤其是机器学习是模型加特征,而特征工程是一个人力工程,你要有经验非常丰富的特征团队去死磕特征,找出更好、更多的特征,才能够使机器学习的效果更好。但是现在深度学习这些新技术出来,能够用机器学习特征,能够在大量非结构化数据中找到丰富的信息维度用特征表达出来,这远远超出了人的能力。大家知道黑客帝国描述了一个场景,人脑袋后面插一个插头,给机器提供营养,我可能不会那么悲观,但是像这样的互动关系以一种更良性的方式出现了,现在人的一言一行、社交行为、金融行为都已经成为机器的养料、机器的数据,使得机器获得更好的洞察。

终端用户需要更好地、更傻瓜化的分析工具和可视化工具,两年前我去参加大数据的会,基本上都是hadoop和nosql现在大家参加大数据会可以看到清一色的分析工具和可视化工具。大数据跟各行各业的化学作用正在发生。如果

马化腾说“互联网+”是互联网与各行各业的加法效应,那么大数据将与各行各业产生乘法效应。

第三个关系,数据与数据的关系。现在只有海面平的数据是搜索引擎可以检索到,深海的数据可能是黑暗的数据,在政府、在企业里大家看不到。我们怎么办呢?必须让数据发现数据。只有让数据能够发现数据、遇到数据,才能产生金风玉露一相逢、便胜却人间无数的效果。这里有三个重要的观念,需要法律、技术、经济理论和实践上配合。法律上要明确数据的权利,数据所有权,数据的隐私权,什么数据不能给你看;数据的许可权,什么数据是可以给你看的;数据的审计权,我给你看了以后,你是不是按照许可的范围去看;数据的分红权。数据像原油又不同于原油,原油用完了就没有了,数据可以反复地产生价值,因此数据的拥有者应该得到分红。我们要保证数据的开放、共享、交易。公共数据和部分科研数据要开放,开放过程中注意保护隐私。企业之间可以进行数据的点对点共享,最高境界是不丢失数据的所有权和隐私权的前提下共享,这里有多方安全计算的概念。1982年姚期智老先生提出了百万富翁的窘境的问题,两个百万富翁他们想要比谁更富,但是谁都不愿意说出来自己都多少钱,在我们的数据共享当中要通过各种各样的技术达到这样的效果。还有数据交易,建立多边多边平台来支持数据交易。

互联网能发展起来经济学理论和实践是很重要的支撑,梅特卡夫定律决定了一个互联网公司的价值,跟它用户数的平方成正比,又比如说谷歌请最好的经济学家,它的一个广告业务的核心就是建立在一个非常先进的拍卖经济学的模型基础上。数据经济也需要这样一些基础的理论,比如数据定价和信息定价不一样,信息做一个咨询报告5000美金卖给你,可以卖给所有人。但数据对不同的单位价值不一样,可能我之毒药是彼之蜜糖。另外估值,一个企业拥有大量的数据,是无形资产的一部分,对于企业的市场价值带来了多大的增长。1.3 大数据的四个特性

大数据是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。这也是一个描述性的定义,在对数据描述的基础上加入了处理此类数据的一些特征,用这些特征来描述大数据。当前,较为统一的认识是大数据有四个基本特征: 数据规模大

( volume) ,数据种类多( variety) ,数据要求处理速度快( velocity) ,数据价值密度低( value) ,即所谓的四v 特性。

数据规模大( volume):企业面临着数据量的大规模增长。例如,idc最近的报告预测称,到2020年,全球数据量将扩大50倍。目前,大数据的规模尚是一个不断变化的指标,单一数据集的规模范围从几十tb到数pb不等。简而言之,存储1pb数据将需要两万台配备50gb硬盘的个人电脑。此外,各种意想不到的来源都能产生数据。

数据种类多( variety):一个普遍观点认为,人们使用互联网搜索是形成数据多样性的主要原因,这一看法部分正确。然而,数据多样性的增加主要是由于新型多结构数据,以及包括网络日志、社交媒体、互联网搜索、手机通话记录及传感器网络等数据类型造成。其中,部分传感器安装在火车、汽车和飞机上,每个传感器都增加了数据的多样性。

处理速度快( velocity):高速描述的是数据被创建和移动的速度。在高速网络时代,通过基于实现软件性能优化的高速电脑处理器和服务器,创建实时数据流已成为流行趋势。企业不仅需要了解如何快速创建数据,还必须知道如何快速处理、分析并返回给用户,以满足他们的实时需求。根据ims research关于数据创建速度的调查,据预测,到2020年全球将拥有220亿部互联网连接设备。

数据价值密度低( value):大数据具有多层结构,这意味着大数据会呈现出多变的形式和类型。相较传统的业务数据,大数据存在不规则和模糊不清的特性,造成很难甚至无法使用传统的应用软件进行分析。传统业务数据随时间演变已拥有标准的格式,能够被标准的商务智能软件识别。目前,企业面临的挑战是处理并从各种形式呈现的复杂数据中挖掘价值。

1.4 大数据的三个特征

除了有四个特性之外,大数据时代的数据还呈现出其他三个特征。

第一个特征是数据类型繁多。包括网络日志、音频、视频、图片、地理位置信息等等,多类型的数据对数据的处理能力提出了更高的要求.

第二个特征是数据价值密度相对较低。如随着物联网的广泛应用,信息感知无处不在,信息海量,但价值密度较低,如何通过强大的机器算法更迅速地完成数据的价值“提纯”,是大数据时代亟待解决的难题。

第三个特征是处理速度快,时效性要求高。这是大数据区分于传统数据挖掘最显著的特征。

2 大数据的技术与处理

2.1 大数据的技术

1.数据采集:etl工具负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。

2.数据存取:关系数据库、nosql、sql等。

3.基础架构:云存储、分布式文件存储等。

4.数据处理:自然语言处理(nlp,naturallanguageprocessing)是研究人与计算机交互的语言问题的一门学科。处理自然语言的关键是要让计算机"理解"自然语言,所以自然语言处理又叫做自然语言理解(nlu,naturallanguage understanding),也称为计算语言学(computational linguistics。一方面它是语言信息处理的一个分支,另一方面它是人工智能(ai, artificial intelligence)的核心课题之一。

5.统计分析:假设检验、显著性检验、差异分析、相关分析、t检验、方差分析、卡方分析、偏相关分析、距离分析、回归分析、简单回归分析、多元回归分析、逐步回归、回归预测与残差分析、岭回归、logistic回归分析、曲线估计、因子分析、聚类分析、主成分分析、因子分析、快速聚类法与聚类法、判别分析、对应分析、多元对应分析(最优尺度分析)、bootstrap技术等等。

6.数据挖掘:分类(classification)、估计(estimation)、预测(prediction)、相关性分组或关联规则(affinity grouping or association rules)、聚类(clustering)、描述和可视化、description and visualization)、复杂数据类型挖掘(text, web ,图形图像,视频,音频等)。

7.模型预测:预测模型、机器学习、建模仿真。

8.结果呈现:云计算、标签云、关系图等。

2.2 大数据的处理

1.采集

大数据的采集是指利用多个数据库来接收发自客户端(web、app或者传感器形式等)的数据,并且用户可以通过这些数据库来进行简单的查询和处理工作。比如,电商会使用传统的关系型数据库mysql和oracle等来存储每一笔事务数据,除此之外,redis和mongodb这样的nosql数据库也常用于数据的采集。

在大数据的采集过程中,其主要特点和挑战是并发数高,因为同时有可能会有成千上万的用户来进行访问和操作,比如火车票售票网站和淘宝,它们并发的访问量在峰值时达到上百万,所以需要在采集端部署大量数据库才能支撑。并且如何在这些数据库之间进行负载均衡和分片的确是需要深入的思考和设计。

2.导入/预处理

虽然采集端本身会有很多数据库,但是如果要对这些海量数据进行有效的分析,还是应该将这些来自前端的数据导入到一个集中的大型分布式数据库,或者分布式存储集群,并且可以在导入基础上做一些简单的清洗和预处理工作。也有一些用户会在导入时使用来自twitter的storm来对数据进行流式计算,来满足部分业务的实时计算需求。导入与预处理过程的特点和挑战主要是导入的数据量大,每秒钟的导入量经常会达到百兆,甚至千兆级别。

3.统计/分析

统计与分析主要利用分布式数据库,或者分布式计算集群来对存储于其内的海量数据进行普通的分析和分类汇总等,以满足大多数常见的分析需求,在这方面,一些实时性需求会用到emc的greenplum、oracle的exadata,以及基于mysql的列式存储infobright等,而一些批处理,或者基于半结构化数据的需求可以使用hadoop。统计与分析这部分的主要特点和挑战是分析涉及的数据量大,其对系统资源,特别是i/o会有极大的占用。

4.挖掘

与前面统计和分析过程不同的是,数据挖掘一般没有什么预先设定好的主题,主要是在现有数据上面进行基于各种算法的计算,从而起到预测(predict)的效果,从而实现一些高级别数据分析的需求。比较典型算法有用于聚类的kmeans、用于统计学习的svm和用于分类的naivebayes,主要使用的工具有hadoop的mahout等。该过程的特点和挑战主要是用于挖掘的算法很复

杂,并且计算涉及的数据量和计算量都很大,常用数据挖掘算法都以单线程为主。

整个大数据处理的普遍流程至少应该满足这四个方面的步骤,才能算得上是一个比较完整的大数据处理。

3 大数据的应用

正如诸多文献所谈到的,大数据对许多行业的影响和冲击已经呈现。例如,商零售、物流、医药、文化产业等。金融,作为现代经济中枢,其实也已透出了大数据金融的曙光。

过去的2013年,中国金融界热议最多的或许是互联网金融,更有人指出2013年是中国互联网金融元年。确实,第三方支付、p2p、网贷、众筹融资、余额宝、微信支付等发展迅速。众多传统金融业者也或推出自己的电商平台,或与互联网企业联手提供相应的金融产品和服务。

互联网金融,无论是业界、监管者或理论界,都在试图给出自己的理解和定义。但到目前为止,尚未有一个统一的、规范的概念。在我看来,互联网金融本来就是一个不确切的概念,也不可能有一个明确的定义。严格说来,所谓互联网金融只是大数据金融的一种展现或形态。换言之,前者是表,后者是里。

这是因为,无论是互联网还是金融业,其实质都是大数据(信息)。首先,对互联网企业而言,流量、客户等数据(信息)是其涉足金融业的基石。对金融企业而言,提供中介服务,撮合金融交易也是以数据(信息)为基础。其次,没有大数据技术的支撑,所谓互联网金融也难以快速、持续成长。20世纪90年代互联网浪潮的蓬勃兴起,至今已近二十年。但从世界范围看,所谓互联网金融却发展缓慢。当然,其中原因很多,但其主要原因则是大数据技术是近几年才快速发展起来的。最后,从金融企业来看,在数据中心建设,软硬件系统建设,数据(信息)挖掘、分析等方面也是做得有声有色,其庞大的客户数据、海量交易记录及众多信息源,使其在大数据应用方面也做了许多积极探索。因此,要准确反映近年新金融趋势,“大数据金融”比“互联网金融”更为贴切。

4 大数据应用中的三大难题

近年来,大数据这个词成为互联网领域关注度最高的词汇,时至今日,大数据已经不再是it圈的“专利”了,从去年的春晚,到刚刚过去的两会,都能见到它的身影,但实际上春晚与两会的数据都只能叫做小数据,它与真正的大数据还相差甚远。即便如此,数据所产生的价值已经被人们所认知。

就大数据来说,它的发展可以分成三个阶段,第一个阶段是组织内部的数据,这些数据通常都是结构化的数据,我们一般将这些数据进行分类、排序等操作,将相同类型的数据进行对比、分析、挖掘,总而言之基本上都是统计工作。到了第二阶段,数据的范围扩大到行业内,各种各样的应用数据出现,数据量大规模增长,尤其是非结构化数据的出现。典型的像视频、图片这一类的数据,在这一阶段的特点就是非结构化和结构化数据并存,且数据量巨大,要对这些数据进行分析是我们目前现阶段所处在的状态。

第三阶段则是未来大数据发展的理想化状态,首先它一定是跨行业的,且数据的范围是整个社会。通过对这些数据进行分析加以使用,将直接改变我们的生活方式,这也是现在很多企业所设想的未来交通、医疗、教育等领域的发展方向。

1.大数据太大不敢用

第三个阶段是我们所憧憬的,但在我们所处的第二阶段面对的更多是问题。其中的一个问题就是“大”。大数据给人最直观的感受就是大,它所带来的问题不仅仅是存储,更多的是庞大的数据没办法使用,以交通为例,从2001年开始在北京的主干道上都增设了一些卡口设备,到了今天基本上大街小巷都能看到。这些设备每天所拍摄的视频及照片产生的数据量是惊人的,仅照片每天就能产生2千万张,而解决这些数据的存储只是最基本的任务,我们更需要的是使用这些数据。例如对套牌车辆的检查,对嫌疑车辆的监控,当你想要使用这些数据的时候,传统的数据库以及系统架构,放进这么庞大的数据,是根本跑不动的。这一问题导致很多企业对大数据望而却步。

2.大数据太难不会用

说到大数据的使用,自然离不开hadoop,hadoop本身提供了分布式系统中两个最重要的东西:分布式存储(hdfs)和分布式计算(mapreduce)。这两者解决了处理大数据面临的计算和存储问题,但更为重要的是,为开发大数据应用开辟了道路。hadoop是目前解决大数据问题最流行的一种方式,但其仍然

有不成熟的地方,曾作为雅虎云计算以及facebook软件工程师的jonathan gray就表示:“hadoop实施难度大,且复杂,如果不解决技术复杂性问题,hadoop将被自己终结。”正是由于这样的原因,gray创办了自己的公司——continuuity,这家公司的目标就是在hadoop和hbase基础上创建一个抽象层,屏蔽掉hadoop底层技术的复杂性。由此可见想要用好大数据又是一大考验。

3.大数据太贵用不起

hadoop的特点就是让你可以使用廉价的x86设备来完成大数据的业务,但事实上如果你真想要用它来完成某些商业任务你还得是个“土豪”。在国外那些使用大数据的成功案例里,亚马逊曾给出过这样一组数字,nasa需要为45天的数据存储服务支付超过100万美元。像quant___cast这样的数字广告公司,同样也是花费了巨额的资金用在hadoop技术上,来根据自己的需求定制系统。从上面两个案例来看用于商业用途的大数据现阶段还是很费钱的,随着大数据软件环境逐渐成熟,开发工具增多,价格在未来会逐渐降低。

从上面罗列的这三点困难,其实并不是要给大数据泼冷水,而是想说大数据想要淘金并不简单,首先在做大数据之前,好好盘点一下自己拥有的资源,不仅仅是数据资源,还包括知识与技能。确定了自己的能力之后,选择一个能够发挥你现有资源最大价值的项目。如果你需要帮手,应先考虑商业顾问,再考虑技术人才。为了解答一个生意上的困惑花下的钱,叫作投资,而把钱投到一个拥有特殊技能的it人才身上,那就叫沉没成本。当你有了这些之后,选择更灵活且可扩展的工具,为以后的扩充打好基础。更重要的是——从小规模做起。

5 大数据创新的驱动力

计算机科学与技术的发展使得大规模信息处理基础设施产生重要改变。在过去的30年中,经典的数据库管理系统(dbms)在处理大规模数据方面与时俱进,在企业数据处理等方面得到广泛应用。数据库研究和技术进展主要集中在数据建模、描述性查询语言、事务处理和数据库可靠性等。在这个过程中,相关的数据仓库和数据挖掘分析技术也成为一个热点研究方向;人们认识到数据处理过程中的信息可以被有效整理和分析来支持以数据为中心的决策支持。

数据库管理系统在目前的互联网时代继续占据了重要地位。在一个典型的互联网服务系统架构中,数据库管理系统和web服务器及应用服务共同作用,为互联网用户提供各类信息和服务。在这个系统架构中,人们期望系统能支持无限次和高速的互联网用户访问,这个时候数据库层由于在硬件可扩展性上面的不足可能成为系统性能瓶颈。这个挑战我们称为大数据问题(big data problem)。大数据系统期望能对大规模异构复杂数据建模,进行实时分析;传统的商用数据库系统很难提供良好的解决方案。另一个大数据相关的挑战是服务器端数据中心的数据维护及安全隐私问题。近年来云计算技术已经成为大数据中心的一种可靠解决方案,google, yahoo and microsoft等公司也纷纷开发自己的云计算系统。尽管云计算在互联网应用中已经体现出很多优越性,其在系统成熟性、可用性等方面还有很大提高空间。

显而易见,大数据领域的大规模数据管理和复杂数据分析已经成为新的研究前沿。目前的各类大数据应用正是大数据研究的驱动力,比如社会网络、移动计算、科学应用等等。这些应用产生的大数据往往具有海量、时序动态性、多样等特性,给数据库领域的各项技术带来巨大挑战,涵盖包括数据获取、组织管理、分析处理和应用呈现等整个数据管理生命周期。针对数据管理和分析不同系统应用,各类大数据处理技术在也不断发展。mapreduce作为一种分布式的数据处理框架由于其灵活性、可扩展性、高效和容错等特性其近年来得到了广泛应用。此外,也有多类其他分布式数据处理系统用来解决mapreduce不擅长的问题,比如交互式分析、图计算和分析、实时和流处理、通用数据处理等等。大数据不但给数据库研究领域,同时也给体系结构、存储系统、系统软件和软件工程等计算机多个学科带来了很多机会和挑战。大数据正是目前很多计算机科学问题的根本,并驱动众多新科技的发展。

6 大数据的发展前景

大数据的概念来源于、发展于美国,并向全球扩展,必将给我国未来的科技与经济发展带来深远影响。根据idc 统计,目前数据量在全球比例为: 美国32%、西欧19%、中国13%,预计到2020 年中国将产生全球21% 的数据,我国是仅次于美国的数据大国,而我国大数据方面的研究尚处在起步阶段,如

何开发、利用保护好大数据这一重要的战略资源,是我国当前亟待解决的问题。

而大数据未来的发展趋势则从以下几个方面进行:

(1)开放源代码

大数据获得动力,关键在于开放源代码,帮助分解和分析数据。hadoop 和nosql 数据库便是其中的赢家,他们让其他技术商望而却步、处境很被动。毕竟,我们需要清楚怎样创建一个平台,既能解开所有的数据,克服数据相互独立的障碍,又能将数据重新上锁。

(2)市场细分

当今,许多通用的大数据分析平台已投入市场,人们同时期望更多平台的出现,可以运用在特殊领域,如药物创新、客户关系管理、应用性能的监控和使用。若市场逐步成熟,在通用分析平台之上,开发特定的垂直应用将会实现。但现在的技术有限,除非考虑利用潜在的数据库技术作为通用平台( 如hadoop、nosql)。人们期望更多特定的垂直应用出现,把目标定为特定领域的数据分析,这些特定领域包括航运业、销售业、网上购物、社交媒体用户的情绪分析等。同时,其他公司正在研发小规模分析引擎的软件套件。比如,社交媒体管理工具,这些工具以数据分析做为基础。

(3)预测分析

建模、机器学习、统计分析和大数据经常被联系起来,用以预测即将发生的事情和行为。有些事情是很容易被预测的,比如坏天气可以影响选民的投票率,但是有些却很难被准确预测。例如,中间选民改变投票决定的决定性因素。但是,当数据累加时,我们基本上有能力可以大规模尝试一个连续的基础。网上零售商重新设计购物车,来探索何种设计方式能使销售利润最大化。根据病人的饮食、家族史和每天的运动量,医生有能力预测未来疾病的风险。当然,在人类历史的开端,我们就已经有各种预测。但是,在过去,许多预测都是基于直觉,没有依靠完整的数据集,或者单单靠的是常识。当然,即便有大量数据支撑你的预测,也不表明那些预测都是准确的。2007 年和2008 年,许多对冲基金经理和华尔街买卖商分析市场数据,认为房地产泡沫将不会破灭。根据历史的数据,可以预测出房地产泡沫即将破裂,但是许多分析家坚持原有的观

点。另一方面,预测分析在许多领域流行起来,例如欺诈发现( 比如在外省使用信用卡时会接到的诈骗电话),保险公司和顾客维系的风险管理。

7 结语

大数据正在以不可阻拦的磅礴气势,与当代同样具有革命意义的最新科技进步(如纳米技术、生物工程、全球化等)一起,揭开人类新世纪的序幕。可以简单地说,以往人类社会基本处于蒙昧状态中的不发展阶段,即自然发展阶段。现在,这一不发展阶段随着2012年的所谓“世界末日”之说而永远成为了过去。大数据宣告了21世纪是人类自主发展的时代,是不以所谓“上帝”的意志为转移的时代,是“上帝”失业的时代。

对于地球上每一个普通居民而言,大数据有什么应用价值呢?只要看看周围正在变化的一切,你就可以知道,大数据对每个人的重要性不亚于人类初期对火的使用。大数据让人类对一切事物的认识回归本源;大数据通过影响经济生活、政治博弈、社会管理、文化教育科研、医疗保健休闲等等行业,与每个人产生密切的联系。

大数据技术离你我都并不遥远,它已经来到我们身边,渗透进入我们每个人的日常生活消费之中,时时刻刻,事事处处,我们无法逃遁,因为它无微不至:它提供了光怪陆离的全媒体,难以琢磨的云计算,无法抵御的仿真环境。大数据依仗于无处不在的传感器,比如手机、发带,甚至是能够收集司机身体数据的汽车,或是能够监控老人下床和行走速度与压力的“魔毯”(由ge与intel 联合开发),洞察了一切。通过大数据技术,人们能够在医院之外得悉自己的健康情况;而通过收集普通家庭的能耗数据,大数据技术给出人们切实可用的节能提醒;通过对城市交通的数据收集处理,大数据技术能够实现城市交通的优化。

随着科学技术的发展,人类必将实现数千年的机器人梦想。早在古希腊、古罗马的神话中就有冶炼之神用黄金制造机械仆人的故事。《论衡》中也记载有鲁班曾为其母巧公制作一台木马车,“机关具备,一驱不还”。而到现代,人类对于机器人的向往,从机器人频繁出现在科幻小说和电影中已不难看出。公元2035年,智能型机器人已被人类广泛利用,送快递、遛狗、打扫卫生……这是电影《我,机器人》里描绘的场景。事实上,今天人们已经享受到了部分家用智能机器人给生活带来的便利。比如,智能吸尘器以及广泛应用于汽车工业领域的机器手等等。有意思的是,2010年松下公司专门为老年人开发了“洗发机器人”,它可以自动完成从涂抹洗发水、按摩到用清水洗净头发的全过程。未来的智能机器人不会是电影《变形金刚》中的庞然大物,而会越来越小。目前,科学家研发出的智能微型计算机只和雪花一样大,却能够执行复杂的计算任务,将来可以把这些微型计算机安装在任何物件上用以监测环境和发号施令。随着大数据时代的到来和技术的发展,科技最终会将我们带进神奇的智能机器人时代。

在大数据时代,人脑信息转换为电脑信息成为可能。科学家们通过各种途径模拟人脑,试图解密人脑活动,最终用电脑代替人脑发出指令。正如今天人们可以从电脑上下载所需的知识和技能一样,将来也可以实现人脑中的信息直接转换为电脑中的图片和文字,用电脑施展读心术。2011年,美国军方启动了“读心头盔”计划,凭借读心头盔,士兵无需语言和手势就可以互相“阅读”彼此的脑部活动,在战场上依靠“心灵感应”,用意念与战友互通讯息。目前,“读心头盔”已经能正确“解读”45%的命令。随着这项“读心术”的发展,人们不仅可以用意念写微博、打电话,甚至连梦中所见都可以转化为电脑图像。据美国《纽约时

报》报道,奥巴马政府将绘制完整的人脑活动地图,全面解开人类大脑如何思考、如何储存和检索记忆等思维密码作为美国科技发展的重点,美国科学家已经成功绘出鼠脑的三维图谱。2012年,美国ibm计算机专家用运算速度最快的96台计算机,制造了世界上第一个“人造大脑”,电脑精确模拟大脑不再是痴人说梦。试想一下,如果人类大脑实现了数据模拟,或许你的下一个boss是机器人也不一定。

总而言之,大数据技术的发展有可能解开宇宙起源的奥秘。因为,计算机技术将一切信息无论是有与无、正与负,都归结为0与1,原来一切存在都在于数的排列组合,在于大数据。

相关热词搜索:;