天天看點

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

前言:筆者從事于傳統軟體行業十五年以上,曾就職于國内大、中、小型軟體公司及傳統企業的IT部門,也曾去過外企(日企等),自己覺得對.net各方面的開發、架構及運用,以及各類通用的軟體及行業軟體諸如OA、财務、CRM、人事及ERP、WMS、MES,GIS、BIM、教育、電商、網站、APP等都有了相當程度的了解,已經有了個人特色的程式設計思想。在一次偶然的機會,我去了某微軟外服公司,參與了微軟某大資料平台的開發工作,頓時感覺眼界大開、以前積累的知識經驗等完全派不上用場,仿佛進入了一片從所未知的知識海洋。微軟在大資料、雲計算、人工智能、邊緣計算、數字孿生方面等遠遠走在了中國的前面,已經完全有了自己可演進的生态體系。在此我把在微軟外服的一些工作經曆和内容在不涉密的情況下分享出來,希望對大家有所幫助。我主要講和國内企業以及普通外企不一樣的地方,初來乍到,說的不對的地方希望各位多多指導。(注意:文章比較長,可以先收藏再檢視)

 目錄

  • 入職、微軟賬号、工作協調和環境等
  • 大資料平台:Cosmos、Object Store、Azure Data Factory、Scope語言等
  • Azure和我們國家工業網際網路
  • 工作氛圍和總結等

入職

我入職的是微軟某業務部門的大資料外服團隊,入職的經曆如下:

填寫大量的表格,數量僅次于二手房過戶交易和辦理過銀行按揭貸款;

體檢:公司替你預約好了體檢名額,自己預約體檢時間即可;

背調:背景調查由國外知名的背調公司進行,需要上網注冊賬戶,填寫表格、上傳證件等,這家公司應該也是微軟在全球的背調合作夥伴;

公司入職教育訓練:有些是線下的、有些線上的,教育訓練結束都需要線上進行測試,通過的标準各不相同;

微軟入職教育訓練:有Supplier Code of Conduct Training, Microsoft Security 101,Privacy 101等,如果申請别的權限組,還要進行Privacy 201、Security Foundations、Windows Data Handling等的線上教育訓練。總結這些教育訓練,感到微軟在客戶的合同和服務、以及新産品的研發上市資訊等比較關注,要求所有人嚴格保密;

值得一提的是,微軟的線上教育訓練網站做的非常漂亮,我算是在界面和美工方面很挑剔的了,也禁不住對他們的網站感到贊歎!這裡我截兩張圖

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

雖然是内部網站,他們也是在頁面架構設計、照片方面精益求精、花了不少心思的。

微軟賬号、工作互動

入職兩周左右,終于收到了微軟開通的賬号,賬号的格式是[email protected],這是微軟專門為Vendor開通的賬号,據說以前還有@msn.com結尾的,現在申請不到了。有了這個賬号,我們可以給電腦加域(中國區基本是fareast域,通路到的多數是fareast、Redmond和NorthAmerica域的資源)、登入VPN,不受限制地通路網絡、自動激活電腦上的Windows、Office、Visual Studio等軟體,還可以申請微軟的資源權限組和安全權限組。部門的一些老鳥有六、七十個組,我申請了二十來個,有了權限,你可以通路微軟全球的資料庫、代碼庫和内部網站。微軟公司通過VPN、AD域、Portal以及和Windows、Office套件等的全面內建,把整個公司遍布全球的海量内部資源整合起來,實作跨地域、跨時區、跨部門、跨種族的工作協作;比如我們的大資料業務部門,就能經常收到Cosmos組的求助郵件;有的時候我們在處理報表的時候還能直接和微軟PowerBI開發小組進行會議溝通,而對方的工程師很可能是來自印度或越南的程式員小哥。他們在幫你解決問題的時候,不會管你是公司直屬部門還是Vendor,不管你是黑人、白人還是黃色人種、來自哪個派系,一視同仁地提供技術服務(這也正是比爾蓋茨推薦的《世界是平的——21世紀簡史》一書中描繪的景象);當國内的公司各部門之間還在搶奪資源和功勞、互相拆台、各自為政搞山頭主義的時候,不能為微軟的開放和平等感到羞愧嗎?

工作環境和内容

微軟的工作區域稱之為Offsite Facility,門口有保安,進出都需要刷卡,進去後就等于進入了微軟内部的工作區域,不允許攜帶除手機外的任何電子産品;裡面各個區域都相對獨立,進入機房和會議室還要刷不同級别的卡;内部網絡獨立,連重裝系統都得用微軟自己的裝機軟體,保證裝出來的系統幹淨、無毒,受到微軟的管控。然後電腦上隻允許裝微軟授權的軟體(大概三四十個左右),安裝未經授權的軟體可是要受到處罰的。理論上微軟可以監控到你在電腦上的一舉一動,前些日子有人安裝了Adobe的軟體,微軟立馬就給所有的Vendor發警告郵件,要求解除安裝。正因為作業系統時時刻刻受到微軟監控,是以我們國家一些重要的政府機關都有封閉的内部網絡,從外部需要通過堡壘機通路;國家還在晶片、作業系統研發上投入巨資(也被PPT和打磨的晶片騙走不少錢),就是出于安全上的考慮;都用老美的晶片和系統,對FBI、CIA等就沒有秘密可言了。

每個工位配備兩台顯示器(也有的工位使用三台,看見一位女孩在那邊熟練地操縱)、一副耳麥(因為經常要和國外sync up),電腦都是最新11代i7晶片。工作環境從作業系統到應用軟體是全英文的,使用線上的Office文檔編輯(前身可能是OWA)、通訊使用Team軟體(類似于騰訊QQ+騰訊會議,可以錄屏(微軟官方很大部分教育訓練視訊都是用Team錄的)。

剛開始在這裡工作,就算你是程式設計高手、技術很牛,也有三大障礙需要克服,一是技術,微軟私家的大資料技術在全球領先、早已深入到各方面的業務運作中,國内最多就是教你怎麼裝個Hadoop,國内的雲服務提供商主要業務也就是賣VPS;二是業務,工作中有上千條資料處理的流程分布在EB級的伺服器叢集中,不在這裡工作幾年,根本理不清這裡面的資料流向、思路和算法;三是英語,國外發來的郵件是全英文的,specific(需求規格書)也是全英文的,回複郵件也要用英文,需要一定的英文基礎,建議教育訓練班出來同學不要來這裡工作,英文這關過不了。

和我們對接的部門在美國西雅圖微軟總部,有十幾個人,部門的主管和進階程式員都是華人,由此可見華人在微軟公司内部擔任了相當重要的崗位,也是微軟的中堅力量。雖然都是華人,但郵件溝通也是使用英文(其實英語的文法是很美的,一點不亞于中國的唐詩宋詞)。通過Outlook的部門層級示意,大家可以清晰地看到自己在微軟公司内部處于怎麼樣的一個層級位置:

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

(不管是誰,都可以看見自己離微軟的CEO位置其實沒差幾步:)

微軟班車

微軟班車稱之為MS Connector,在全市有近40條線路(節假日也有),站點遍布全市各個角落,數量可以裝備一個小型城市的公交線路;班車有手機APP(據說鵝廠也有APP),APP裡可以查每一條線路、每個站點、每一輛車的實時位置。上車需刷卡,刷卡機也是聯網的,理論上隻要刷卡上車,不管幾點到公司,就算是考勤成功了。

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

大資料平台

微軟内部使用的大資料平有一系列産品組成,主要供内部使用,我目前接觸到的有:

資料存儲、轉換、計算:Cosmos、Object Store等;

資料排程:Sangam、Xflow、Azure Data Factory(ADF)等;

資料展現、可視化:Power BI、Jarvis及一些不便于透露名稱的内部平台。(這裡就不做介紹了)

微軟也是很早就進行大資料平台研發并投入産品使用的公司之一,隻不過他們的Cosmos、Object Store以及周邊的平台等一直隻在内部使用。不像Hadoop等很早就開源并為人熟知。據說微軟會把Cosmos一部分功能開放出來,不知道目前情況怎樣(Azure上的Cosmos DB和Cosmos不一樣);微軟在Azure上提供了稱之為HD Insight群集的功能,包括Hadoop、Spark、Storm等多種開源大資料技術,可以使用多種語言的SDK、以及在Visual Studio上使用Hive、Pig等進行開發。

Cosmos

Cosmos應該是微軟最早的大資料平台,一直用到現在。既然是大資料,那麼它有多大呢?我這裡截了張圖,是某個叢集某天的資料量。

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

 可以看到,這個虛拟卷上的總資料量達到了4.3EB。我們知道,1EB=1024PB、1PB=1024TB、1TB=1024GB,我計算了一下,如果用1TB的桌上型電腦硬碟裝這些資料,約需要450萬塊,這些硬碟首尾相連可以從南京排到上海,再從上海排回南京。這還可能隻是微軟某一個資料中心的資料量。各個業務部門使用的資料量也十分驚人,都在幾百PB級别,有的上了EB。進入目錄,目錄和單個檔案的大小也是驚人的:

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

這些檔案裡存放着各種結構化、非結構化的資料資訊。在一定的時間内對這些檔案處理,并且提煉出相應的有用的資訊,這就是大資料處理和分析平台的作用。

Cosmos上支援存放的檔案格式有txt、Csv、Tsv、SS等,其中SS(Strut Stream)為列式存儲,在很大程度上能提升查詢聚合的效率、大幅度提升資料壓縮率,在存放資料的時候可以選擇相應的格式進行存儲。

Cosmos運作平台是Windows Server,他的底層很可能是基于Hadoop、由java開發,微軟擴充了它的功能,能夠運作.net和python等,本身就可以執行spark任務,從一些出錯資訊及通過ADF可以看到。

Scope語言

在Cosmos上處理資料、程式設計開發的語言叫Scope,在我看來,Scope是種DSL(Domain Specific Language,詳見Martin Fowler 的《領域特定語言》一書);我覺得它是一種由模闆語言、T-SQL、LINQ、Lambda和C#(或者Python)組成的混合體。Scope腳本上傳到Cosmos後,由内置的C++解釋器轉譯成C#,再由編譯器編譯成IL,執行。

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

大家可以看到,轉譯後的代碼裡那些标記、占位符、Linq等都轉換成了可處理的Row類的Process類,友善Cosmos排程執行,Scope語言更像是SqlServer2005起用使用的CLR存儲過程。

從上面看出來我感覺Scope的編譯器優化功能并不強,隻有些基本的優化功能,它把原始流程分解成一步步排程并行執行(不過這樣也友善CPU和GPU進行簡單的并行處理),這樣一旦開發人員能力水準不高,會使得編寫的job占用大量的CPU和IO,經常逾時等。是以Cosmos上的job會産生各種狀況,相同的資料和代碼執行時間會相差很多,我們團隊曾經把國外程式員編寫的需要執行五六個小時的job優化到一半時間内執行完畢。我想如果微軟如果讓SqlServer開發團隊參與Cosmos開發,可能會在性能優化方面要好很多。

在Cosmos上執行的任務及排程器,微軟的開發團隊都提供了相應的Visual Studio插件來管理,可以很友善的在VS中編寫腳本、釋出任務、實時檢視作業的完成情況,每一步的資源消耗等,還提出了代碼優化建議、資源配置設定的優化建議等,一些資訊也可以在Windows Azure上檢視:

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

大家可以看到,單表的資料量有400多億條,幾TB的資料量;拆解出來的處理步驟步能夠在分鐘級别進行篩選、置換、聚合等操作。我們還曾經收到過使用Scope的求助資訊,提到了一個檔案有6百多TB,五萬億多條資料,并行處理的時候需要數萬個核心并行處理,結果兩次拆解出來的行數不同。像這樣萬億級别的表,足夠儲存全世界所有人每天的網頁點選記錄,進而帶來巨大的商機。

在平台上執行腳本需要消耗token令牌,一個token關聯1到2個CPU核心、3到6GB的記憶體。平台的總token數量有限,配置設定給每個團隊的也有限。執行完cosmos腳本後平台會給出優化意見,進行代碼調優也是一份有技術含量的工作,比較常見的問題是資料傾斜導緻任務執行時間變長甚至執行失敗等。

Cosmos的技術還是很牛的,既要負責大量資料的多重副本存放,還要每時每刻執行相當數量查詢和計算,進行複雜的權限管理、映射等,并且得保證資料的服務品質。微軟在很早以前就實作了單Cosmos叢集超過9000+台伺服器。(在去IOE的過程中,國内阿裡王堅兩個團隊為了實作單叢集達到5000台伺服器搞了好長時間,險些沒有完成,後來還大吹特吹了一番,那還隻是跑mysql資料庫)

Cosmos平台提供了資料存放,執行Scope腳本的功能,主要用來進行資料的ETL,和一些算法的實作(空間換時間等),那麼面對每天産生的大量的增量資料,需要有一定作業排程功能,才能夠按每小時、每日、每周乃至每月定時執行一些分析任務。

對大資料平台上的資料進行排程處理的平台,我們用過了Sangam、Xflow和Azure Data Factory。

Sangam

Sangam應該是針對Cosmos較早的作業排程平台,在14年前後使用的團隊比較多,目前處于棄用的階段。

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

Xflow

Xflow平台功能和Sangam的差不多,多了一些可選功能和其他作業的排程功能,在通常情況下也能正常使用,不過最近也有傳言也進入了廢棄期,以下是xflow的任務執行時序圖。

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

ADF(Azure Data Factory)

我感覺ADF是微軟大資料排程處理集大成的産品,目前已經發展到了第二代,開放給外部使用,它基于Azure雲提供服務,整合了自家和市面上各種關系型、非關系型資料平台,隻有你想不到的,沒有它做不到的,支援的部分資料源如下圖。如果資料源在内網,可以使用免費的Azure代理和雲端進行資料交換。ADF能夠調用Azure Function、WebApplication、HD Insight等種種複雜的功能,執行python、java包,執行機器學習,有着完整的流程處理界面,并且程式設計環境和自家的Azure DevOps無縫整合,使用git或者tfs進行源碼管理,内部整合了全套CI/CD的功能,支援靈活、CMMI等開發模式。從内部到外部、橫向縱向都整合了起來。微軟自從研發SSIS(Sql Server Integration Service,見《Professional Microsoft SQL Server 2012 Integration Services》)的年代開始,就在為統一各種資料平台、進行的資料的傳輸、過濾、轉換、計算而努力,而據我看來Azure Data Factory應該是秉承這方面的思想而開發的,到目前為止,市面上應該還沒有的類似的能與之競争的産品,最多也隻可能在某一點上對其進行模仿。

ADF底層我猜想還是用微軟自家的WF(Windows Workflow)中的順序工作流、狀态機工作流進行作業管理和排程。

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
 ADF界面

Object Store

除了Cosmos資料庫外,我們還使用了Object Store。Object Store是微軟适應當下的大資料分析發展趨勢,基于新一代AI+ R生态而開發的Key-Value哈希型資料庫,提供了非常恐怖的通路性能和基于GPU加速,能夠進行圖周遊、機器學習、神經網絡計算等。根據官方的文檔,key的大小限制在2k,value限制在16兆以内,而單表的大小是沒有限制的,很多表超過了20PB;如此大的數量,使用不同的存儲媒體(Memory,SSD,HDD)都能夠提供毫秒級的資料通路時間。針對每個表,有着稱之為CoProcessor(協程)來處理和業務所需要的資料,還有一些常駐的機器學習代碼,下面放一張整體的架構圖:

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

在Cosmos上,我們進行海量資料的存儲、計算、轉換,最終的一部分處理結果放到Object Store上(不全是),它能夠利用協程對海量資料進行查詢及展現。顧名思義,在Object Store上存放的資料都是對象,必須是滿足某種格式的結構化資料,它提供了語義化的存儲機制。對運作在每個表上常駐記憶體的Copoc(協程)來說,不管多大的資料對它來說都是透明的,都隻是類的一些執行個體,讀寫隻是把資料加載到相應的記憶體位址,是以減去了非常多的和存儲引擎、模式比對、共享記憶體打交道的中間過程,并且在哈希索引的加持下,無論對多大的資料(TP、PB)級都能達到毫秒級的通路速度,可以滿足一些搜尋引擎、大資料實時分析排程系統的需要。

Object Store的設計思想部分借鑒了RocksDB,本身也提供了RocksDB的接口調用方式。

令人驚奇的是,Object Store團隊開放了全部源碼的下載下傳,他們在首頁裡公布了代碼庫位置、編譯要求等,這就意味着隻要能通路Object Store資源的微軟賬号就都能夠下載下傳源碼;全部代碼大概有六百多G,在普通電腦上編譯需要10到14個小時,還額外需要一部分空間用于存放臨時檔案和nuget包。

大資料平台的不穩定性和微軟的Bug以及我們的應對方法

前面提到過,微軟的大資料平台并不是一個完全堅固和穩定的系統(微軟很多産品都是Bug多多,我同僚說微軟的某個Sharepoint版本的js腳本像是實習生寫的;Cosmos演進和運維了十年,也隻能内部用用,沒法作為一個成熟産品開放給外部使用),基于叢集伺服器數量大小、資料量大小和同時進行的作業數量、網絡延遲等,資料的排程和分析結果充滿了各種不确定性。在我們平台運作着一千多個作業,每天都要收到數十封作業失敗、延遲的郵件;有的作業連續兩天執行失敗,第三天又好了,有的作業執行失敗,經檢視是内部某台伺服器上某個檔案缺失的原因;有些由其他團隊維護的依賴檔案今天沒有按時生成,導緻我們的作業一直沒有按時執行;連續失敗若幹次的作業會被隔離,今天不再繼續執行。

面對資料源的不穩定和處理系統的相對脆弱,為了交給客戶一個穩定、滿意的産品,我們國内的程式員在這方面進行了艱苦卓絕的努力,凝聚着團隊的智慧和汗水。舉某一方面例子,大家知道對于每天生成的資料,需要檢視結果最好的方法是每天定時執行某個資料處理的腳本,但是,如果到了這個時間點,原始資料還沒有生成怎麼辦?今天就不再執行了嗎?缺了一天的資料隔天需要補嗎?如果資料又在後面某個時間點出現了,該不該、該如何通知程式以及後續的任務順序執行?每個作業的優先級、并行度該如何設定比較合适?某些任務不容易在伺服器上送出成功,應該有怎樣的補救措施?這些都需要我們進行編碼解決。在ADF流程中,處處充滿了防禦式的程式設計,我們合理調用微軟Azure上的各種Function、Web hook等,實作了諸如依賴檔案檢測、失敗任務優化送出等功能,保證了資料正常處理和使用,也一直得到國外同行和主管的高度評價,微軟的一些其他團隊也紛紛把作業交給我們來管理和維護。

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解
 一些出錯資訊,檔案沒找到(可見最底層代碼是java)、自己把任務取消了、執行下去沒有得到響應等。有的時候會在一段時間内job全部送出不上去,直到送出微軟的事故工單(ICM)才得以解決,過段時間又送出不上了;有的時候别的團隊修改了一個Scope Module的DLL引用,導緻大量引用該Module的腳本在編譯期間内編譯失敗,而Scope開發團隊似乎早就意識到了這點,在文檔中提出了解決方法。

net Core的性能問題

在通常情況下我們送出到Cosmos的C#代碼的目标架構是.Net Framework4.7.2,我想如果把目标架構改成.net5或者.net6,性能上是否有所提高,本來我想Cosmos執行的job應該是IO密集型而不是CPU密集型,不管使用什麼樣的靜态語言編寫,最終效果差别不會太大,但事實并非如此。在微軟的一些讨論組和郵件裡有的團隊使用.net Core或者.net5,在Cosmos和Object Store上執行結果的性能直線下降,原先隻需要10毫秒的執行步驟改成.net core之後,執行時間竟然翻了一番,達到20毫秒;其他一些.net代碼執行時間也大幅度延長,至此Cosmos團隊還沒有正式予以回複。雖然通過開源和制定一年一個大版本的roadmap,使得.net得以跨平台和統一架構,但是人多手雜,在一些對于性能要求比較高的場合,開源社群貢獻的代碼是否經過了嚴密的測試和驗證呢?僅僅靠一兩個人的PR?

聊聊微軟Azure雲和我們國家工業網際網路之間的關系

由我國華為、電信、航天科工、三一集團、海爾、阿裡研究院等組成工業物聯網産業聯盟(AII)近期釋出的《工業網際網路體系架構(版本2.0)》中,從能力、應用、商業、産業四個層面對我國工業網際網路産業進行了業務界定。其中用到的關鍵技術如5G、邊緣計算、區塊鍊、工業人工智能、數字孿生等,微軟Azure早就都提供了相應的、開箱即用的低代碼、零代碼解決方案。具體如下:

裝置層和資料彙集、感覺層:

微軟Azure提供了諸如IOT HUB、IOT Center這樣的産品,方面使用者采集資料,進行裝置通訊和管控;通常情況下,對一個中型企業做資料采集,其采集點往往有數十萬個,自己編寫程式去對接,耗時耗力,程式的穩定性、可靠性還不容易掌控,這些交由雲端的IOT HUB處理,按照節點數量和時長付費,省去很多精力、也不用自己去做運維,實際上是很節約成本的。

邊緣計算:

微軟提供了IOT Edge的托管服務,在 IoT Edge 裝置上本地部署的智能,将特定工作負荷遷移到網絡邊緣,并在GitHub上提供了免費的SDK開發包;甚至可以提供了搭載Intel或者nVidia的晶片的智能硬體裝置(可能國内購買和租借不到)在現場進行分析和計算。

區塊鍊:

微軟早在2015年就在Azure裡提供了區塊鍊服務,不過近期關閉,使用者可以從應用市場中使用由ConsenSys公司提供的Quorum服務或者使用VM鏡像,使用體驗等同于微軟其他Azure産品。

人工智能:

這方面Azure提供的産品更加多了,有視覺識别、人臉識别、表單識别、語義分析、機器學習、認知服務、語音服務等,而且都是低代碼和零代碼實作,很容易和需求進行對接,有興趣的朋友可以自己去微軟Azure上面去看。

聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

數字孿生:

配合Azure和微軟的Helolens2等産品,結合Unity3d、虛幻引擎等,可以非常友善的搭建出數字孿生平台。微軟幫助中心有一些教材,比如使用風力發電站進行數字孿生模拟的教程,非常簡單,并且還有視訊指導。(使用 Azure 數字孿生和 Unity 生成混合現實數字孿生體  ; 使用 Azure 數字孿生和 Unity 将 IoT 資料連接配接到 HoloLens 2)

5G技術:

我覺得國内對他的宣傳是有些過頭了,華為号稱自己是5G技術的龍頭老大,結果自己新出的旗艦手機上都用不了5G晶片,這不是很大的諷刺嗎?

微軟的産品給人以簡單易用的印象,通過封裝和抽象來隐藏内部的複雜性,表面上給使用者一個簡單易用的産品;當國内的小微企業、初創公司還在進行新的技術探索、理論上的研究和論證以及重複造輪子的時候,微軟早就提供了低成本、簡單易用的全家桶産品了。

當然,我們國家這方面的建設不太可能去使用微軟現成的技術(使用的話也會采用由世紀互聯營運的Azure,符合國内政策法規),否則政府的補貼、投入會落入何處?我們國家對新技術的運用和推廣采取自上而下的行政手段,結合每年的财政預算,使得社會财富進行再次配置設定,這也是具有中國特色的遊戲規則;當然缺點也很明顯,宏觀大于微觀,沒有執行層面上的戰術和細節,也沒有進行市場化的論證,這樣的效率也是顯而易見的;中國制造業大而不強,在沿海一些較為發達的城市,很多企業的管理人員連Excel都沒有用起來,還在一家客戶每年用一本本賬冊手工記賬。中國企業的資訊化、數字化、智能化發展路線何時能夠實作呢?

工作氛圍等

公司規定按照國家的規定上下班。到了上班的點,放眼望去,上百人的工位才稀稀拉拉來了幾個人,一刻鐘後,大家才陸陸續續過來,也不知道幾點鐘前人會到齊,碰到周末節假日大家連續請假也很常見,公司HR對管理、勞動紀律等也不是非常重視;進公司前,已經明确告知公司不提倡加班,實在有事需要工作加班的,必須提前申請和逐級批複,手續還特别麻煩;一次我下班稍微晚走了幾分鐘,碰到保安已經在問裡面剩幾個準備趕人回家了。

就是這樣的公司,我上網查了下今年上半年居然還盈利了好幾個億。在國内的很多公司,老闆不相信任何一個人,不相信你有能力把事情做好、也不相信你會好好工作,他把每個人當作光拿錢不幹活的罪犯看待。進公司的時候先一遍遍給你洗腦和畫餅:馬雲、十八羅漢、阿裡巴巴、納斯達克敲鐘、全員持股等;上班後每天工作前又唱又跳喊口号,講奮鬥和勵志故事,打雞血;然後就是996、7117,好一點的大小周;員工每個人每天都工作到很晚,假裝在認真工作,其實啥活都沒幹、都在騙公司晚飯、宵夜和打車費用。這樣的公司,到最後不是拿不出産品,就是被内耗拖垮,不到半年、一年就關門大吉。

我們和這樣的公司相比,簡直是是一個天一個地。其中的差别就在于企業工作内容附加值的巨大差異。我們的團隊,支撐起了微軟某一方面全球業務的大資料分析工作,為微軟公司帶來了很高的利潤。國内的企業,老闆們還在絞盡腦汁地想怎麼拓展業務、打擊同行對手,怎麼圈錢、套路别人、開個皮包公司倒買倒賣騙錢騙補貼;相比這樣的公司我們實在是太高大上了。我們的企業該有的福利一樣不少,還有着優秀的人才、傑出的團隊、做着先進的、一流的工作,這還不是每個碼農所向往的好公司嗎?

我希望國内有更多的像這樣高附加值的軟體企業誕生,靠着良好的業務和工作氛圍,通過我們每一個新生代IT農民工的自覺、自律和每個人的自我價值實作,進而帶動整個軟體行業生态向着良性的、健康的、可持續化的的方面去發展,最終實作整個中華民族的繁榮和複興!

微軟外服工作劄記系列

①聊聊我在微軟外服大資料分析部門的工作經曆及一些個人見解

②聊聊微軟的知識管理服務平台和一些程式設計風格

③視窗函數的介紹

作者:thanks

微信:-

QQ:305380844

    出處:https://thanks.cnblogs.com/

    本文版權歸作者和部落格園共有,歡迎轉載,但未經作者同意必須保留此段聲明,且在文章頁面明顯位置給出原文連接配接,否則保留追究法律責任的權利。

繼續閱讀