工作職責:
-直接為人工智能相關項目提供數(shù)據(jù)與技術支持,打造面向海量數(shù)據(jù),每日傳輸P級數(shù)據(jù)量
的分布式傳輸服務。
-面向?qū)崟r計算需求,提供低延時高可用的實時數(shù)據(jù)流傳輸引擎。
-結合spark生態(tài),打造傳輸 計算的實時化產(chǎn)品服務,提供秒級延遲的數(shù)據(jù)實時分析能力。
-加入大數(shù)據(jù)平臺,打造業(yè)界一流的分布式日志服務。
職責要求:
-具有大數(shù)據(jù)開發(fā)經(jīng)驗,了解分布式傳輸系統(tǒng)的基本原理,有spark, kafka, scribe, flu
me, chukwa, datax, sqoop一個或者多個系統(tǒng)經(jīng)驗者優(yōu)先
-熟練使用C 、Java、Python中至少一門語言;熟練使用基礎數(shù)據(jù)結構和算法;熟悉網(wǎng)絡
編程、多線程編程技術
-善于學習新知識,樂于挑戰(zhàn)新高度;腳踏實地做事情,一點一滴靠耕耘;
期望實時地點在北京,實時時間每周不低于3個工作日,連續(xù)實習時長大于3個月,實習達
標發(fā)校招offer
請發(fā)送郵箱:pengxiangyu@baidu.com