99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀大數(shù)據(jù)技術(shù)人員工具包最全集合
大數(shù)據(jù)技術(shù)人員工具包最全集合
2016-03-15
收藏

大數(shù)據(jù)技術(shù)人員工具包最全集合

數(shù)據(jù)科學(xué)融合了多門學(xué)科并且建立在這些學(xué)科的理論和技術(shù)之上,包括數(shù)學(xué)、概率模型、統(tǒng)計(jì)學(xué)、機(jī)器學(xué)習(xí)、數(shù)據(jù)倉庫、可視化等。在實(shí)際應(yīng)用中,數(shù)據(jù)科學(xué)包括數(shù)據(jù)的收集、清洗、分析、可視化以及數(shù)據(jù)應(yīng)用整個(gè)迭代過程,最終幫助組織制定正確的發(fā)展決策數(shù)據(jù)科學(xué)的從業(yè)者稱為數(shù)據(jù)科學(xué)家。數(shù)據(jù)科學(xué)家有其獨(dú)特的基本思路與常用工具,本文全面梳理數(shù)據(jù)分析師和數(shù)據(jù)科學(xué)家使用的工具包,包括開源的技術(shù)平臺(tái)相關(guān)工具、挖掘分析處理工具、其它常見工具等幾百種,幾十個(gè)大類,部分網(wǎng)址!

數(shù)據(jù)科學(xué)家是有著開闊視野的復(fù)合型人才,他們既有堅(jiān)實(shí)的數(shù)據(jù)科學(xué)基礎(chǔ),如數(shù)學(xué)、統(tǒng)計(jì)學(xué)、計(jì)算機(jī)學(xué)等,又具備廣泛的業(yè)務(wù)知識(shí)和經(jīng)驗(yàn)數(shù)據(jù)科學(xué)家通過精深的技術(shù)和專業(yè)知識(shí)在某些科學(xué)學(xué)科領(lǐng)域解決復(fù)雜的數(shù)據(jù)問題,從而制定出適合不同決策人員的大數(shù)據(jù)計(jì)劃和策略。數(shù)據(jù)分析師和數(shù)據(jù)科學(xué)家使用的工具在網(wǎng)上的MOOC有提供,比如2016年2月1日約翰-霍普金斯大學(xué)Coursera數(shù)據(jù)科學(xué)專業(yè)化課程等網(wǎng)絡(luò)課程。數(shù)據(jù)科學(xué)家的常用工具與基本思路,并對(duì)數(shù)據(jù)、相關(guān)問題和數(shù)據(jù)分析師和數(shù)據(jù)科學(xué)家使用的工具做了綜合概述。

1458022273-8687-0311

A.大數(shù)據(jù)技術(shù)平臺(tái)相關(guān)2015最佳工具

InfoWorld在分布式數(shù)據(jù)處理、流式數(shù)據(jù)分析、機(jī)器學(xué)習(xí)以及大規(guī)模數(shù)據(jù)分析領(lǐng)域精選出了2015年的開源工具獲獎(jiǎng)?wù)?,下面我們來簡單介紹下這些獲獎(jiǎng)的技術(shù)工具。

1. Spark

在Apache的大數(shù)據(jù)項(xiàng)目中,Spark是最火的一個(gè),特別是像IBM這樣的重量級(jí)貢獻(xiàn)者的深入?yún)⑴c,使得Spark的發(fā)展和進(jìn)步速度飛快。與Spark產(chǎn)生最甜蜜的火花點(diǎn)仍然是在機(jī)器學(xué)習(xí)領(lǐng)域。去年以來DataFrames API取代SchemaRDD API,類似于R和Pandas的發(fā)現(xiàn),使數(shù)據(jù)訪問比原始RDD接口更簡單。Spark的新發(fā)展中也有新的為建立可重復(fù)的機(jī)器學(xué)習(xí)的工作流程,可擴(kuò)展和可優(yōu)化的支持各種存儲(chǔ)格式,更簡單的接口來訪問機(jī)器學(xué)習(xí)算法,改進(jìn)的集群資源的監(jiān)控和任務(wù)跟蹤。spark-packages.org網(wǎng)站上有超過100個(gè)第三方貢獻(xiàn)的鏈接庫擴(kuò)展,增加了許多有用的功能。

2. Storm

Storm是Apache項(xiàng)目中的一個(gè)分布式計(jì)算框架項(xiàng)目,主要應(yīng)用于流式數(shù)據(jù)實(shí)時(shí)處理領(lǐng)域。他基于低延時(shí)交互模式理念,以應(yīng)對(duì)復(fù)雜的事件處理需求。和Spark不同,Storm可以進(jìn)行單點(diǎn)隨機(jī)處理,而不僅僅是微批量任務(wù),并且對(duì)內(nèi)存的需求更低。在我的經(jīng)驗(yàn)中,他對(duì)于流式數(shù)據(jù)處理更有優(yōu)勢,特別是當(dāng)兩個(gè)數(shù)據(jù)源之間的數(shù)據(jù)快速傳輸過程中,需要對(duì)數(shù)據(jù)進(jìn)行快速處理的場景。Spark掩蓋了很多Storm的光芒,但其實(shí)Spark在很多流失數(shù)據(jù)處理的應(yīng)用場景中并不適合。Storm經(jīng)常和Apache Kafka一起配合使用。

3. H2O

H2O是一種分布式的內(nèi)存處理引擎用于機(jī)器學(xué)習(xí),它擁有一個(gè)令人印象深刻的數(shù)組的算法。早期版本僅僅支持R語言,3.0版本開始支持Python和Java語言,同時(shí)它也可以作為Spark在后端的執(zhí)行引擎。使用H2O的最佳方式是把它作為R環(huán)境的一個(gè)大內(nèi)存擴(kuò)展,R環(huán)境并不直接作用于大的數(shù)據(jù)集,而是通過擴(kuò)展通訊協(xié)議例如REST API與H2O集群通訊,H2O來處理大量的數(shù)據(jù)工作。幾個(gè)有用的R擴(kuò)展包,如ddply已經(jīng)被打包,允許你在處理大規(guī)模數(shù)據(jù)集時(shí),打破本地機(jī)器上內(nèi)存容量的限制。你可以在EC2上運(yùn)行H2O,或者Hadoop集群/YARN集群,或者Docker容器。用蘇打水(Spark+ H2O)你可以訪問在集群上并行的訪問Spark RDDS,在數(shù)據(jù)幀被Spark處理后。再傳遞給一個(gè)H2O的機(jī)器學(xué)習(xí)算法。

4. Apex

Apex是一個(gè)企業(yè)級(jí)的大數(shù)據(jù)動(dòng)態(tài)處理平臺(tái),即能夠支持即時(shí)的流式數(shù)據(jù)處理,也可以支持批量數(shù)據(jù)處理。它可以是一個(gè)YARN的原生程序,能夠支持大規(guī)模、可擴(kuò)展、支持容錯(cuò)方法的流式數(shù)據(jù)處理引擎。它原生的支持一般事件處理并保證數(shù)據(jù)一致性(精確一次處理、最少一次、最多一次)。以前DataTorrent公司開發(fā)的基于Apex的商業(yè)處理軟件,其代碼、文檔及架構(gòu)設(shè)計(jì)顯示,Apex在支持DevOps方面能夠把應(yīng)用開發(fā)清楚的分離,用戶代碼通常不需要知道他在一個(gè)流媒體處理集群中運(yùn)行。Malhar是一個(gè)相關(guān)項(xiàng)目,提供超過300種常用的實(shí)現(xiàn)共同的業(yè)務(wù)邏輯的應(yīng)用程序模板。Malhar的鏈接庫可以顯著的減少開發(fā)Apex應(yīng)用程序的時(shí)間,并且提供了連接各種存儲(chǔ)、文件系統(tǒng)、消息系統(tǒng)、數(shù)據(jù)庫的連接器和驅(qū)動(dòng)程序。并且可以進(jìn)行擴(kuò)展或定制,以滿足個(gè)人業(yè)務(wù)的要求。所有的malhar組件都是Apache許可下使用。

5. Druid

Druid在今年二月轉(zhuǎn)為了商業(yè)友好的Apache許可證,是一個(gè)基于“事件流的混合引擎,能夠滿足OLAP解決方案。最初他主要應(yīng)用于廣告市場的在線數(shù)據(jù)處理領(lǐng)域,德魯伊可以讓用戶基于時(shí)間序列數(shù)據(jù)做任意和互動(dòng)的分析。一些關(guān)鍵的功能包括低延遲事件處理,快速聚合,近似和精確的計(jì)算。Druid的核心是一個(gè)使用專門的節(jié)點(diǎn)來處理每個(gè)部分的問題自定義的數(shù)據(jù)存儲(chǔ)。實(shí)時(shí)分析基于實(shí)時(shí)管理(JVM)節(jié)點(diǎn)來處理,最終數(shù)據(jù)會(huì)存儲(chǔ)在歷史節(jié)點(diǎn)中負(fù)責(zé)老的數(shù)據(jù)。代理節(jié)點(diǎn)直接查詢實(shí)時(shí)和歷史節(jié)點(diǎn),給用戶一個(gè)完整的事件信息。測試表明50萬事件數(shù)據(jù)能夠在一秒內(nèi)處理完成,并且每秒處理能力可以達(dá)到100萬的峰值,Druid作為在線廣告處理、網(wǎng)絡(luò)流量和其他的活動(dòng)流的理想實(shí)時(shí)處理平臺(tái)。

6. Flink

Flink的核心是一個(gè)事件流數(shù)據(jù)流引擎。雖然表面上類似Spark,實(shí)際上Flink是采用不同的內(nèi)存中處理方法的。首先,Flink從設(shè)計(jì)開始就作為一個(gè)流處理器。批處理只是一個(gè)具有開始和結(jié)束狀態(tài)的流式處理的特殊情況,Flink提供了API來應(yīng)對(duì)不同的應(yīng)用場景,無論是API(批處理)和數(shù)據(jù)流API。MapReduce的世界的開發(fā)者們?cè)诿鎸?duì)DataSet處理API時(shí)應(yīng)該有賓至如歸的感覺,并且將應(yīng)用程序移植到Flink非常容易。在許多方面,Flink和Spark一樣,其的簡潔性和一致性使他廣受歡迎。像Spark一樣,Flink是用Scala寫的。

7. Elasticsearch

Elasticsearch是基于Apache Lucene搜索分布式文件服務(wù)器。它的核心,Elasticsearch基于JSON格式的近乎實(shí)時(shí)的構(gòu)建了數(shù)據(jù)索引,能夠?qū)崿F(xiàn)快速全文檢索功能。結(jié)合開源Kibana BI顯示工具,您可以創(chuàng)建令人印象深刻的數(shù)據(jù)可視化界面。Elasticsearch易于設(shè)置和擴(kuò)展,他能夠自動(dòng)根據(jù)需要使用新的硬件來進(jìn)行分片。他的查詢語法和SQL不太一樣,但它也是大家很熟悉的JSON。大多數(shù)用戶不會(huì)在那個(gè)級(jí)別進(jìn)行數(shù)據(jù)交互。開發(fā)人員可以使用原生JSON-over-HTTP接口或常用的幾個(gè)開發(fā)語言進(jìn)行交互,包括Ruby,Python,PHP,Perl,Java,JavaScript等。

8. SlamData

如果你正在尋找一個(gè)用戶友好的工具,能理解最新流行的NoSQL數(shù)據(jù)的可視化工具,那么你應(yīng)該看一看SlamData。SlamData允許您用熟悉的SQL語法來進(jìn)行JSON數(shù)據(jù)的嵌套查詢,不需要轉(zhuǎn)換或語法改造。該技術(shù)的主要特點(diǎn)之一是它的連接器。從MongoDB,HBase,Cassandra和Apache的Spark,SlamData同大多數(shù)業(yè)界標(biāo)準(zhǔn)的外部數(shù)據(jù)源可以方便的進(jìn)行整合,并進(jìn)行數(shù)據(jù)轉(zhuǎn)換和分析數(shù)據(jù)。你可能會(huì)問:“我不會(huì)有更好的數(shù)據(jù)池或數(shù)據(jù)倉庫工具嗎?請(qǐng)認(rèn)清這是在NoSQL領(lǐng)域。

9. Drill

Drill是一種用于大型數(shù)據(jù)集的交互分析的分布式系統(tǒng),由谷歌的Dremel催生。Drill專為嵌套數(shù)據(jù)的低延遲分析設(shè)計(jì),它有一個(gè)明確的設(shè)計(jì)目標(biāo),靈活的擴(kuò)展到10000臺(tái)服務(wù)器來處理查詢記錄數(shù)據(jù),并支持兆級(jí)別的數(shù)據(jù)記錄。嵌套的數(shù)據(jù)可以從各種數(shù)據(jù)源獲得的(如HDFS,HBase,Amazon S3,和Blobs)和多種格式(包括JSON,Avro,和buffers),你不需要在讀取時(shí)指定一個(gè)模式(“讀時(shí)模式”)。Drill使用ANSI 2003 SQL的查詢語言為基礎(chǔ),所以數(shù)據(jù)工程師是沒有學(xué)習(xí)壓力的,它允許你連接查詢數(shù)據(jù)并跨多個(gè)數(shù)據(jù)源(例如,連接HBase表和在HDFS中的日志)。最后,Drill提供了基于ODBC和JDBC接口以和你所喜歡的BI工具對(duì)接。


10. HBASE

HBase在今年的里程碑達(dá)到1.X版本并持續(xù)改善。像其他的非關(guān)系型的分布式數(shù)據(jù)存儲(chǔ)一樣,HBase的查詢結(jié)果反饋非常迅速,因此擅長的是經(jīng)常用于后臺(tái)搜索引擎,如易趣網(wǎng),博科和雅虎等網(wǎng)站。作為一個(gè)穩(wěn)定的、成熟的軟件產(chǎn)品,HBase新鮮的功能并不是經(jīng)常出現(xiàn),但這種穩(wěn)定性往往是企業(yè)最關(guān)心的。最近的改進(jìn)包括增加區(qū)域服務(wù)器改進(jìn)高可用性,滾動(dòng)升級(jí)支持,和YARN的兼容性提升。在他的特性更新方面包括掃描器更新,保證提高性能,使用HBase作為流媒體應(yīng)用像Storm和Spark持久存儲(chǔ)的能力。HBase也可以通過Phoenix項(xiàng)目來支持SQL查詢,其SQL兼容性在穩(wěn)步提高。Phoenix最近增加了一個(gè)Spark連接器,添加了自定義函數(shù)的功能。

11. Hive

隨著Hive過去多年的發(fā)展,逐步成熟,今年發(fā)布了1.0正式版本,它用于基于SQL數(shù)據(jù)倉庫領(lǐng)域。目前基金會(huì)主要集中在提升性能、可擴(kuò)展性和SQL兼容性。最新的1.2版本顯著的提升了ACID語意兼容性、跨數(shù)據(jù)中心復(fù)制,以及以成本為基礎(chǔ)的優(yōu)化器。Hive1.2也帶來了改進(jìn)的SQL的兼容性,使組織利用它更容易的把從現(xiàn)有的數(shù)據(jù)倉庫通過ETL工具進(jìn)行轉(zhuǎn)移。在規(guī)劃中講主要改進(jìn):以內(nèi)存緩存為核心的速度改進(jìn) LLAP,Spark的機(jī)器學(xué)習(xí)庫的集成,提高SQL的前嵌套子查詢、中間類型支持等。

12. Kylin

Kylin是eBay開發(fā)的用于處理非常大量數(shù)據(jù)的OLAP分析系統(tǒng),他使用標(biāo)準(zhǔn)的SQL語法,和很多數(shù)據(jù)分析產(chǎn)品很像。Kylin使用Hive和MR來構(gòu)建立方體,Hive用作預(yù)鏈接,MR用作預(yù)聚合,HDFS用來儲(chǔ)存構(gòu)建立方體時(shí)的中間文件,HBase用來存儲(chǔ)立方體,HBase的coprocessor(協(xié)處理器)用來響應(yīng)查詢。像大多數(shù)其他的分析應(yīng)用一樣,Kylin支持多種訪問方法,包括JDBC,ODBC API進(jìn)行編程訪問以及REST API接口。

13. CDAP

CDAP(Cask Data Access Platform)是一個(gè)在Hadoop之上運(yùn)行的框架,抽象了建造和運(yùn)行大數(shù)據(jù)應(yīng)用的復(fù)雜性。CDAP圍繞兩個(gè)核心概念:數(shù)據(jù)和應(yīng)用程序。CDAP數(shù)據(jù)集是數(shù)據(jù)的邏輯展現(xiàn),無論底層存儲(chǔ)層是什么樣的;CDAP提供實(shí)時(shí)數(shù)據(jù)流處理能力。應(yīng)用程序使用CDAP服務(wù)來處理諸如分布式事務(wù)和服務(wù)發(fā)現(xiàn)等應(yīng)用場景,避免程序開發(fā)者淹沒在Hadoop的底層細(xì)節(jié)中。CDAP自帶的數(shù)據(jù)攝取框架和一些預(yù)置的應(yīng)用和一些通用的“包”,例如ETL和網(wǎng)站分析,支持測試,調(diào)試和安全等。和大多數(shù)原商業(yè)(閉源)項(xiàng)目開源一樣,CDAP具有良好的文檔,教程,和例子。

14. Ranger

安全一直是Hadoop的一個(gè)痛處。它不是說(像是經(jīng)常報(bào)道)Hadoop是“不安全”或“不安全”。事實(shí)是,Hadoop有很多的安全功能,雖然這些安全功能都不太強(qiáng)大。我的意思是,每一個(gè)組件都有它自己的身份驗(yàn)證和授權(quán)實(shí)施,這與其他的平臺(tái)沒有集成。2015年5月,Hortonworks收購XA /安全,隨后經(jīng)過了改名后,我們有了Ranger。Ranger使得許多Hadoop的關(guān)鍵部件處在一個(gè)保護(hù)傘下,它允許你設(shè)置一個(gè)“策略”,把你的Hadoop安全綁定到到您現(xiàn)有的ACL基于活動(dòng)目錄的身份驗(yàn)證和授權(quán)體系下。Ranger給你一個(gè)地方管理Hadoop的訪問控制,通過一個(gè)漂亮的頁面來做管理、審計(jì)、加密。

15. Mesos

Mesos提供了高效、跨分布式應(yīng)用程序和框架的資源隔離和共享,支持Hadoop、 MPI、Hypertable、Spark等。Mesos是Apache孵化器中的一個(gè)開源項(xiàng)目,使用ZooKeeper實(shí)現(xiàn)容錯(cuò)復(fù)制,使用Linux Containers來隔離任務(wù),支持多種資源計(jì)劃分配(內(nèi)存和CPU)。提供Java、Python和C++ APIs來開發(fā)新的并行應(yīng)用程序,提供基于Web的用戶界面來提查看集群狀態(tài)。Mesos應(yīng)用程序(框架)為群集資源協(xié)調(diào)兩級(jí)調(diào)度機(jī)制,所以寫一個(gè)Mesos應(yīng)用程序?qū)Τ绦騿T來說感覺不像是熟悉的體驗(yàn)。雖然Mesos是新的項(xiàng)目,成長卻很快。

16. NiFi

Apache NiFi 0.2.0 發(fā)布了,該項(xiàng)目目前還處于 Apache 基金會(huì)的孵化階段。Apache NiFi 是一個(gè)易于使用、功能強(qiáng)大而且可靠的數(shù)據(jù)處理和分發(fā)系統(tǒng)。Apache NiFi 是為數(shù)據(jù)流設(shè)計(jì)。它支持高度可配置的指示圖的數(shù)據(jù)路由、轉(zhuǎn)換和系統(tǒng)中介邏輯。Apache NiFi是由美國過國家安全局(NSA)貢獻(xiàn)給Apache基金會(huì)的開源項(xiàng)目,其設(shè)計(jì)目標(biāo)是自動(dòng)化系統(tǒng)間的數(shù)據(jù)流?;谄涔ぷ髁魇降木幊汤砟?,NiFi非常易于使用,強(qiáng)大,可靠及高可配置。兩個(gè)最重要的特性是其強(qiáng)大的用戶界面及良好的數(shù)據(jù)回溯工具。NiFi的用戶界面允許用戶在瀏覽器中直觀的理解并與數(shù)據(jù)流舉行交互,更快速和安全的進(jìn)行迭代。其數(shù)據(jù)回溯特性允許用戶查看一個(gè)對(duì)象如何在系統(tǒng)間流轉(zhuǎn),回放以及可視化關(guān)鍵步驟之前之后發(fā)生的情況,包括大量復(fù)雜的圖式轉(zhuǎn)換,fork,join及其他操作等。另外,NiFi使用基于組件的擴(kuò)展模型以為復(fù)雜的數(shù)據(jù)流快速增加功能,開箱即用的組件中處理文件系統(tǒng)的包括FTP,SFTP及HTTP等,同樣也支持HDFS。NiFi獲得來來自業(yè)界的一致好評(píng),包括Hortonworks CEO,Leverage CTO及Prescient Edge首席系統(tǒng)架構(gòu)師等。

17. Kafka

在大數(shù)據(jù)領(lǐng)域,Kafka已經(jīng)成為分布式發(fā)布訂閱消息的事實(shí)標(biāo)準(zhǔn)。它的設(shè)計(jì)允許代理支持成千上萬的客戶在信息吞吐量告訴處理時(shí),同時(shí)通過分布式提交日志保持耐久性。Kafka是通過在HDFS系統(tǒng)上保存單個(gè)日志文件,由于HDFS是一個(gè)分布式的存儲(chǔ)系統(tǒng),使數(shù)據(jù)的冗余拷貝,因此Kafka自身也是受到良好保護(hù)的。當(dāng)消費(fèi)者想讀消息時(shí),Kafka在中央日志中查找其偏移量并發(fā)送它們。因?yàn)橄]有被立即刪除,增加消費(fèi)者或重發(fā)歷史信息不產(chǎn)生額外消耗。Kafka已經(jīng)為能夠每秒發(fā)送2百萬個(gè)消息。盡管Kafka的版本號(hào)是sub-1.0,但是其實(shí)Kafka是一個(gè)成熟、穩(wěn)定的產(chǎn)品,使用在一些世界上最大的集群中。

18.OpenTSDB

opentsdb是建立在時(shí)間序列基礎(chǔ)上的HBase數(shù)據(jù)庫。它是專為分析從應(yīng)用程序,移動(dòng)設(shè)備,網(wǎng)絡(luò)設(shè)備,和其他硬件設(shè)備收集的數(shù)據(jù)。它自定義HBase架構(gòu)用于存儲(chǔ)時(shí)間序列數(shù)據(jù),被設(shè)計(jì)為支持快速聚合和最小的存儲(chǔ)空間需求。通過使用HBase作為底層存儲(chǔ)層,opentsdb很好的支持分布與系統(tǒng)可靠性的特點(diǎn)。用戶不與HBase的直接互動(dòng);而數(shù)據(jù)寫入系統(tǒng)是通過時(shí)間序列的守護(hù)進(jìn)程(TSD)來管理,它可以方便的擴(kuò)展用于需要高速處理數(shù)據(jù)量的應(yīng)用場景。有一些預(yù)制連接器將數(shù)據(jù)發(fā)布到opentsdb,并且支持從Ruby,Python以及其他語言的客戶端讀取數(shù)據(jù)。opentsdb并不擅長交互式圖形處理,但可以和第三方工具集成。如果你已經(jīng)在使用HBase和想要一個(gè)簡單的方法來存儲(chǔ)事件數(shù)據(jù),opentsdb也許正好適合你。

19. Jupyter

大家最喜歡的筆記應(yīng)用程序都走了。jupyter是“IPython”剝離出來成為一個(gè)獨(dú)立的軟件包的語言無關(guān)的部分。雖然jupyter本身是用Python寫的,該系統(tǒng)是模塊化的?,F(xiàn)在你可以有一個(gè)和iPython一樣的界面,在筆記本電腦中方便共享代碼,使得文檔和數(shù)據(jù)可視化。至少已經(jīng)支持50個(gè)語言的內(nèi)核,包括Lisp,R,F(xiàn) #,Perl,Ruby,Scala等。事實(shí)上即使IPython本身也只是一個(gè)jupyter Python模塊。通過REPL(讀,評(píng)價(jià),打印循環(huán))語言內(nèi)核通信是通過協(xié)議,類似于nrepl或Slime。很高興看到這樣一個(gè)有用的軟件,得到了顯著的非營利組織資助,以進(jìn)一步發(fā)展,如并行執(zhí)行和多用戶筆記本應(yīng)用。

20. Zeppelin


Zeppelin是一個(gè)Apache的孵化項(xiàng)目. 一個(gè)基于web的筆記本,支持交互式數(shù)據(jù)分析。你可以用SQL、Scala等做出數(shù)據(jù)驅(qū)動(dòng)的、交互、協(xié)作的文檔。(類似于ipython notebook,可以直接在瀏覽器中寫代碼、筆記并共享)。一些基本的圖表已經(jīng)包含在Zeppelin中??梢暬⒉恢幌抻赟parkSQL查詢,后端的任何語言的輸出都可以被識(shí)別并可視化。 Zeppelin 提供了一個(gè) URL 用來僅僅展示結(jié)果,那個(gè)頁面不包括 Zeppelin 的菜單和按鈕。這樣,你可以輕易地將其作為一個(gè)iframe集成到你的網(wǎng)站。Zeppelin還不成熟。我想把一個(gè)演示,但找不到一個(gè)簡單的方法來禁用“Shell”作為一個(gè)執(zhí)行選項(xiàng)(在其他事情)。然而,它已經(jīng)看起來的視覺效果比IPython筆記本應(yīng)用更好,Apache Zeppelin (孵化中) 是 Apache2 許可軟件。提供100%的開源。

數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請(qǐng)參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }