最新实例
Cloudera Impala JDBC 41 2.6.12.1013驱动包
Cloudera 的 Impala JDBC 2.6.12 驱动包,挺适合用在老项目对接大数据查询那块儿的。ClouderaImpalaJDBC41-2.6.12.1013.zip里主要就是那个核心的ImpalaJDBC41.2.6.12.jar,用来跑 JDBC 连接。你要是搞 BI 平台接入或者要用 Java 连 Impala,直接上它,省事还稳定。兼容性比较不错,JDK1.8配着也没啥问题。 ClouderaImpalaJDBC41-2.6.12.1013.zip的核心其实就是那个ImpalaJDBC41.2.6.12.jar,你只要引进去,配置下连接串,就能搞定大部分 Impala 数
Elasticsearch权威指南中文版
深入讲 Elasticsearch 的中文书还挺少的,《Elasticsearch 权威指南中文版》算是里面比较实用的一本。不光把核心概念都讲清楚了,还配了不少场景例子,哪怕你是第一次接触 ES,看完也能明白大致怎么用,怎么调优。分布式的搜索引擎怎么理解?嗯,书里有一段讲得直白:你可以把它想成一个“聪明的图书管理员”,不光能记住你所有书放哪,还能按你说的关键词飞快翻出来。实时性、扩展性都讲得挺细,Shard和Replica怎么配、怎么保数据安全这些也都有。对了,它还专门拆解了每个核心部件,比如Index、Document、Mapping这些的关系,讲得比较顺,你能一边读一边试。像我当时第一次搭
PPT模板华为集团图标库合集
华为集团的胶片图标库,图标样式比较统一,颜色控制得还挺克制,适合做那种偏商务、偏汇报的 PPT。文件整理得比较全,终端类、网络类、系统类的图标一应俱全,懒得自己画图标的时候,这一套真能省不少事。 华为终端类图标的 PPT 模板,也在这套里面,嗯,图标风格跟华为官方那套风格比较接近。做产品、年终总结啥的,直接套就行。省时省力,改颜色改大小也方便,响应也快。 配套的还有一些比较实用的 PPT 模板资源,像年终总结报告 PPT 模板.zip、商务办公数据展示工具 PPT 模板汇总,风格跟图标库挺搭。用起来比较顺手,是做大屏展示或者技术汇报那种场景。 如果你经常做PPT 方案,或者接手华为项目的汇报材
自控2016-2017学年试卷及答案
自控专业的朋友应该都知道,平时复习最头疼的就是题太散,答案不全,复习没头绪。16、17 学年的试卷资料就蛮实用,覆盖面广,题型经典,关键是答案整理得还挺清楚。函数法、滞后校正、劳斯判据这些核心知识点都有涉及,平时准备考试或者回顾知识结构都挺方便。 里面讲的系统稳定性那块还比较细,不只是讲定义,还结合了传递函数、极点位置这些东西,说白了就是教你怎么看系统稳不稳定、怎么调参数让它稳。对于刚开始学控制理论的人来说,这种资料真的是“比书本讲得还明白”。 有些知识点,比如对数幅频特性和相角裕量,多人学的时候会懵,这套卷子搭配解析就挺清楚:哪里要注意增益变化、哪里相位容易出问题,讲得都比较接地气。再比如Z
神经网络与支持向量机数据挖掘技术与应用
神经网络和支持向量机的组合,用来搞分类和回归问题还挺有意思的,尤其是你面对小样本又想要高精度的时候,SVM 真的挺能打。神经网络的优点是结构灵活、复杂模型也不费劲,比如上百个参数都能轻松搞定。但要说泛化能力强、数学基础扎实,那还是得看SVM,多时候还能当作是“升级版”的神经网络来用。比如你想用 MATLAB 训练分类模型?直接上这份支持向量机分类与回归的代码,跑起来响应也快。想了解原理?看看这篇SVM 在统计学习理论中的革新,讲得通俗。还有结合 SVM 原理训练 MLP 的新玩法,像支持向量神经网络这种方法,比较适合进阶用户。别忘了,还能试试基于 SVM 的真彩色图像分割,也是用 MATLAB
Hadoop入门进阶课程第11周Sqoop介绍安装与操作
关系型数据库和 Hadoop 之间的数据搬家,Sqoop干这个事儿还是蛮顺手的。你要是正好搞大数据,又想从 MySQL、Oracle 之类的数据库导点数据进 HDFS,这份入门到进阶的 PDF 教程还挺合适。Sqoop支持全量、增量导入导出,性能也不错,适合批量任务。教程里直接给了安装步骤,环境用的是 CentOS 6.6,JDK 1.7 配 Hadoop 1.1,适合老系统实验,路径、用户权限这些也讲得挺细。讲到Sqoop 1 和 2的区别时,也没绕弯子。简单说,Sqoop 2多了 Web UI、REST API、安全性也上去了,就是部署稍微麻烦点。PDF 里还贴心地整理了几个常见场景,比如
Hadoop教程英文版
快速上手的,内容挺精炼的,适合刚入门的大数据朋友。开头就讲了下Big Data是怎么回事,带你过一遍MapReduce和HDFS的基本概念,结构清楚,不绕弯子。方式偏实用,比如你看到MapReduce时,不光有原理解释,还有代码例子,像map()和reduce()函数咋用,怎么做分区都讲了。嗯,对于初学者来说,看完就能动手试试。HDFS部分也不错,说了怎么把文件存到分布式系统里,比如用hdfs dfs -put上传数据,响应也快。你要是做日志、用户行为追踪这些,基本逃不出这套系统。你要是想再深入一点,下面几个链接也蛮值得一看:比如,Big Data Ecosystem Hadoop and K
软硬件平台对数据模型设计的影响及建模方法论
软硬件平台的特性对数据建模的影响不可忽视。比如说,不同数据库的数据类型和索引机制都会影响你的数据模型设计。因此,在构建 PDM(物理数据模型)时,你得考虑实际数据库平台的特色。这可不是小事,数据库性能、硬件配置、甚至存储结构的差异都能影响系统的表现。所以,PDM 的设计得根据这些特点灵活调整。 举个例子,假设你在做一个需要高性能数据查询的系统,你就要关注数据库的索引机制和硬件性能,以确保性能的优化。别忘了,PDM 和 LDM(逻辑数据模型)的转换也需要考虑到这些因素。 如果你深入了解这些模型,你会发现,PDM 与 LDM 的映射关系其实蛮有意思的,而且对系统性能的优化有。了解更多关于 LDM
拓思爱诺大数据第五天MapReduce编程
你了解过 MapReduce 编程吗?如果你对大数据有兴趣,那这篇内容绝对值得一看!MapReduce 框架本身挺强大的,它能将复杂的计算任务分解成小任务,分发到多个计算机上并行,提高效率。像是 Hadoop 集群就可以通过它高效地海量数据。不仅如此,MapReduce 还具备灵活的扩展性,开发者可以根据需要自定义开发,不同的数据格式或使用不同的存储系统。而且,像 WordCount、TopN 这样的经典案例也是必学的内容,适合刚入门的大数据开发者。,如果你想提升在分布式数据方面的技能,不妨深入了解一下 MapReduce,挺有的。
Hadoop从初级到资深的35个关键问题
Hadoop 的入门到精通,其实没你想得那么玄。HDFS 的主从架构,还有MapReduce 的并行计算机制,都算是 Hadoop 的“基本功”。你得先搞清楚这些,后面部署集群、挑版本啥的,才不会踩坑。像HDFS,主节点是Namenode,它就像管家,负责记账;数据都扔在Datanode上,自动备份,掉一块盘也不慌。读写也快,PB 级数据压根不怕。MapReduce就更像调度大脑了。JobTracker接活儿,TaskTracker干活儿,分工明确,大数据就靠这套组合拳。版本选型别盲选。Cloudera比较火,毕竟有商用支持。Apache 原版也行,纯开源,灵活。Yahoo 版?别找了,早整合