天天看點

Thoughtworks釋出最新《科技棱鏡》:2022年的五大技術趨勢

作者 | Thoughtworks

近日,思特沃克(Thoughtworks)釋出了關于未來技術趨勢的分析報告《科技棱鏡》,深度剖析 2022 年乃至更遠的未來推動企業發展的關鍵技術趨勢。基于 Thoughtworks 在新技術普及之前為企業提供前沿技術的獨特方法,這份報告為行業上司者如何更好的參與競争并成為行業變革者提供了建議。

Thoughtworks《科技棱鏡》未來技術趨勢分析報告将每年更新一次,密切關注企業不斷變化的技術工作重點和對技術的應用。本期《科技棱鏡》未來技術趨勢分析報告,聚焦以下五個視角:

持續演進的人機體驗:在走向元宇宙的必然過程中,現實世界和數字世界将進一步融合,為企業開啟新的可能。

與人工智能合作:機器學習(ML)和人工智能(AI)技術仍備受各行各業青睐。從日常操作流程的自動化到強化戰略決策,我們看到很多案例都在加速采用這兩種技術。

加速邁向可持續發展:随着消費者、政府和投資者要求企業承擔更大的環境責任,企業走綠色環保發展之路已經不再隻是一種選擇,而是勢在必行。

技術作惡的影響擴大:“惡意”技術通常與勒索軟體、入侵系統竊取資料或制造計算機病毒等犯罪活動聯系在一起,但這并不是全部。由于技術形勢的發展,技術作惡的定義也應該相應擴充,以包含那些雖然合法甚至被廣泛接受,但最終會威脅社會福祉的行為。

實作平台潛力:平台建設是現代商業戰略的核心,但也是一個充滿不确定性的領域。我們看到一個新的工作重點即解決圍繞平台的不确定性,并将平台建構與明确的業務目标聯系起來。

該報告重點介紹了通過不同視角能夠發現的各種機會,以及可用于衡量新趨勢發展速度的預兆信号。我們選取了《技術作惡的影響擴大》的章節,這部分從時間範圍,以及 Thoughtworks 建議的應對政策兩個部分對趨勢進行了分析。

技術作惡的影響擴大

“惡意”技術通常與勒索軟體、入侵系統竊取資料或制造計算機病毒等犯罪活動聯系在一起,但這并不是全部。由于技術形勢的發展,技術作惡的定義也應該相應擴充,以包含那些雖然合法甚至被廣泛接受,但最終會威 脅社會福祉的行為。

科技棱鏡趨勢分析

随着技術變得越來越複雜,技術被誤用濫用的形式也越來越多。人們在日常活動中越來越依賴科技,相應地, 他們日益受到意想不到的、甚至是惡意後果的影響。再加上高度的自動化以機器的速度做出決策,出錯的可 能性就會迅速增加。

根據我們的定義,“作惡”技術不僅包括惡意軟體和黑客工具等犯罪技術,還包括惡意廣告和客戶定位。一 項技術是否屬于作惡,可能是一個視角問題。有些人并不認為網際網路廣告、跟蹤 Cookie 或社交媒體傳播活動具有侵入性,他們很樂意用自己的資料換取他們認為個性化或特殊價值的服務。有些人則在浏覽器中安裝了廣告攔截軟體,并完全避開微網誌、朋友圈等社交應用。對某些人來說,同意跟蹤記錄或收集個人資料基本上是一 種自動選擇;而對另一些人來說,則需要經過謹慎思考。這就是說,由于不同人口群體對技術的擷取和體驗程度不同,以及關于知情同意的資訊和選擇的呈現方式存在各種差異,導緻許多人已經忘記了一個事實,即他們首先是有選擇權的。

并非所有的作惡行為都是蓄意或是惡意的。算法或機器學習系統中的偏差就是一例。由于在建構或開發過程中發生的意外偏差和疏忽,可能會對某些客戶群體表現出惡意傾向,但這種偏差并非由于系統遭到了破壞或 設計者有意為之。

相關預兆信号包括:

技術日益普及,潛在威脅同時也在擴大。海量的聯網裝置就是一個簡單的例子: 弗若斯特沙利文咨詢公 司 (全球最大的企業增長咨詢公司) 預測,到 2026 年,全球活躍物聯網 (IoT) 裝置的數量将超過 650 億台。所有這些裝置都會存在可能被利用的潛在安全漏洞。

消費者對廣告和營銷技術的态度和行為正在發生變化,接受廣泛使用自身資料的人和更關心隐私的人之 間的分歧也越來越大。

對于社交媒體在政治競選中的使用和影響,以及社交媒體管道如何影響健康、政治和其他社會輿論,人 們日益感到焦慮。

人工智能 (AI) 和機器學習 (ML) 的使用越來越多,造成了一些意想不到的後果,如算法和所收集資料集中 的偏見。對惡意影響的擔憂促使人們試圖控制人工智能在比如招聘等流程中的使用。

圍繞資料收集、保留和使用的法規得到加強,如《中華人民共和國個人資訊保護法》(新版)、《歐洲 通用資料保護條例》(GDPR)、《加州隐私權法》(CPRA) 以及其他司法轄區的同類規定。

機會

随着資料洩露接近曆史峰值,防範黑客蓄意攻擊和惡意軟體變得日益重要。企業必須在日益擴大的攻擊面上大力投入進行防禦,以對抗資金雄厚、組織嚴密的攻擊者。然而,随着發生危險的可能性上升,企業還必須考慮惡意技術其他方面的問題。我們相信,尊重客戶的意願,避免”如影随形“的閱聽人定位,并根除算法系統中的偏見,不僅從本質上講是合乎倫理的,而且有利于建立信任和積極的公衆認知,最終有利于企業的健 康發展。

據媒體報道,SolarWinds 供應鍊遭黑客攻擊,緻使該公司損失了近 2,000 萬美元,保險索賠估計達到 1 億美元, 這表明惡意事件的财務的不良影響很容易失去控制。GDPR 的罰金在緩慢起步後又有所提高,總罰金較上年激增 113.5%。最值得注意的是,亞馬遜在其 2021 年 7 月的财報中宣布了 8.77 億美元的巨額 GDPR 罰金,比此前的記錄高出近 15 倍。随着消費者對隐私日益重視,穩健的安全保護措施已成為某些公司的一大優勢。思科最近的一項調查發現,近 80% 的消費者将資料保護納入購買決策,并願意為隐私标準更高的産品或供應商支付更多費用。

我們所看到的目前形勢

在與英國政府為期七年的一個合作項目中,我們幫助他們改變了與公民互動以及向公民提供公共服務的方式, 從一開始就将信任和安全視為重中之重。該項目将不同的政府網站整合為一個強大而便利的平台,增強了公民體驗,并大大縮短了部署周期。重要的是,該平台有一個線上身份認證系統提供支援,進而在公民送出服 務申請時,同時滿足所有必要的資料保護要求,并尊重個人的隐私權。最大限度減少産生負面結果的可能性, 增強人們對平台的信心,促進了該平台的迅速普及。

值得關注的趨勢

Thoughtworks釋出最新《科技棱鏡》:2022年的五大技術趨勢

采納(當下存在的技術,正在業界得到充分利用)

安全的軟體傳遞:過去的一年裡,我們觀察到,“軟體供應鍊”受到的攻擊顯著增加。“軟體供應鍊”并非軟體本身,而是幫助我們将軟體投入生産的工具、過程和庫。美國白宮甚至釋出了一項關于網絡安全的行政令,包括改善供應鍊安全的具體指令,如要求所有政府系統都提供軟體“材料清單”。安全軟體傳遞強調,安全問題人人有責,這一理念應貫穿整個軟體生命周期。

分析(受到關注的技術,但依賴不同行業和應用場景)

道德架構:任何決定都有後果。在科技界,随着 AI 決策開始成為主流,倫理學家們一直在探讨道德決策架構,試圖讓決策過程變得透明和清晰。

預測(成熟度欠缺的技術,可能在未來幾年産生重大影響)

量子機器學習:雖然量子機器學習可能是解決複雜的化學和材料科學問題的一支重要力量,但也可能在資料的倫理使用方面帶來進一步的挑戰。

對采納者的建議

網絡安全是一場與對手的貓鼠遊戲。AI 在各企業中迅速普及,以助力其應對安全威脅,各種各樣的産品正在湧現,以滿足不斷增長的需求。目的是通過自動化手動檢測的任務,提供入侵警報和仔細檢查網絡流量等智能功能,以檢測異常行為、違反政策的情況或機器人故障,進而創造公平的競争環境。也許 AI 方法最關鍵之處在于,它們不僅能夠限制受攻擊面和填補漏洞,而且還能夠幫助預測未來可能發生的攻 擊,進而可以提前采用适當的風險緩解政策。

AI 不是靈丹妙藥。重要的是要記住,任何用于防禦的技術也可能被攻擊者利用,雖然企業可能會從 AI 中受益,但它不是靈丹妙藥。企業需要擯棄将人工智能、機器學習和資料導向型工具視為“一體适用” 的解決方案。相反,任何工具都需要成為貫穿整個組織結構的廣泛智能戰略的一部分。例如,機器學習 不能孤立地實作有效的安全性 ; 它需要管理資料和模型的生命周期,并回報結果。更重要的是,安全問題人人有責。這使得零信任架構方法能夠應用于細分現實網絡,并以一種安全擴充的方式覆寫安全和數 據通路原則,根據需要提供資訊 ; 不多不少正好滿足隐私保護的目的。

采用或建構一個資料道德架構,向員工和客戶明确資料是如何存儲、使用和保持安全的。我們建議您隻 保留實際需要的資料,不超過所需的量。現代合規性和隐私法要求審慎的高水準審查,這可以轉變為一 個積極的差異化因素。作為資料保留政策和資料集建構和使用的基礎,強大的資料倫理架構也可以在您的整體資料戰略中發揮重要作用。

即使不是一目了然,也總是會存在偏見,是以要不斷地努力。偏見很難在事後消除,是以,前期處理 (包括不公平在内的問題) 至關重要。重要的是,記錄資料的方式要允許對基于資料的行動、産品或決策進行審計和分析,以了解其對特定群體的影響。需要對資料來源的表述、所提取樣本的人口特征以及所用算法的選擇進行具體思考。我們負責任的技術手冊提供了指導和最佳實踐,可以協助實施這一過程。永遠不要假設自己的資料不存在偏見。我們是人類,偏見無處不在。

繼續閱讀