天天看點

專訪丨來也科技董事長兼CEO汪冠春:大語言模型時代下,廣義RPA市場會是原來的100倍

作者:雷峰網
專訪丨來也科技董事長兼CEO汪冠春:大語言模型時代下,廣義RPA市場會是原來的100倍

對來也科技CEO汪冠春來說,ChatGPT帶來的沖擊和颠覆,讓他想起了20世紀末的柯達和尼康。攝影從膠片時代步入數位時代,似乎隻是一眨眼,尼康沒有抱着以前的膠卷産品不放,而是全線轉向了數位影像。

“我們做的事情,有點像尼康當時在做的。”汪冠春告訴雷峰網。

過去半年時間裡,來也科技内部完成了一場“急行軍”:1月吹響号角,4月已經可以在國内外接入ChatGPT并提供服務;到了6月,來也科技完成了現有産品矩陣與大語言模型的第一輪融合。

融合的成果,在今天剛剛結束的釋出會上,正式面世;新的産品架構和未來一年的産品研發路線,也已規劃成形。

在外部環境裡,市場對帶有RPA标簽的創業公司們,卻産生了一些擔憂:RPA會是那個最先被ChatGPT徹底颠覆的賽道嗎?

釋出會開始之前,我們與來也科技CEO汪冠春、CTO胡一川、CPO褚瑞三位RPA+AI老兵談了談這個問題的答案。有一點他們非常明确:大語言模型的時代到來,自動化能解決的場景流程變得更加多元化,廣義RPA市場可能是原來的10倍、甚至100倍,把蛋糕做大的同時也将重構流程。

具體到RPA與人類的每一次互動,RPA的魯棒性和容錯性變得更強,大語言模型也讓互動更接近人類的真實對話,而不再拘泥于此前在軟體界面上的拖拉拽。

ChatGPT之于RPA,在有些人眼中是烏雲壓頂,但在汪冠春和來也團隊的眼中,那道雲上的銀邊,清晰且震撼。

以下是雷峰網與汪冠春、胡一川、褚瑞等人的對話實錄:

雷峰網:在來也内部,大語言模型是什麼時候開始被重視的?

汪冠春:今年1月,我們的内部戰略研讨就提出要全面擁抱GPT,組織全員集中學習;會找一些有經驗的同學去給大家講,大語言模型到底怎麼回事,怎麼去用,還辦了一場黑客馬拉松,把所有同學都發動起來,群策群力。

雷峰網:這些學習應該也是有産出了。

汪冠春:是的,産品群組織層面都有落地動作。過去一個季度那些黑客馬拉松上的好主意都已經開始在産品上得到實作。公司内部很多員工也都開時使用基于大語言模型的工具進一步提升工作效率。

胡一川:去年我們把RPA、IDP、Chatbot這一系列産品更新成一體化數字化勞動力平台,我們這次(6月28日的釋出會)的主題就是把大語言模型全面融入數字化勞動力平台。

雷峰網:這股大模型熱潮下,來也的客戶們是怎樣的反應?

褚瑞:今年Q1,我們拜訪了大概二十家中大型客戶,發現他們心态很沖突——一方面是對GPT高度關注,一說有什麼應用都脖子伸老長去聽,非常很感興趣,但他們也很擔心合規和保密方面的要求。

他們對這個新能力非常好奇,但至于它怎麼能夠幫助業務直接獲益,其實他們也還沒有想清楚,是以會向我們直接提問:現有的能力平台上可以內建這個能力嗎?可以具備類GPT的能力嗎?好讓他們更好地開發對話機器人。因為以前需要專業人士用我們的工具去建立很多泛化的語料,但現在這些訓練語料可能全部讓大語言模型生成,這個開發成本肯定是大幅下降了的。

雷峰網:大模型的選型上,有考慮嗎?

汪冠春:面向海外的産品是直接用的OpenAI,4月我們還優先拿到了微軟Azure提供的企業級Open AI接口服務。我們在2021年和微軟簽下戰略合作協定現在看價值更大了。

國産大模型方面,我們與百度、阿裡、華為等都在接觸。當然和百度的對接最快,文心一言釋出後來也科技就是首批使用方。

雷峰網:或者,來也考慮自己做大模型嗎?

汪冠春:如果是像OpenAI、百度那種投入,去做通用大模型,那我們不會做。因為這需要至少上億美金的投入和在Transformer模型這個特定AI方向上的深度積累,我覺得極少創業公司能駕馭。

但基于開源版本,封裝出一些針對特定領域的定制模型,對特定場景微調,這我們會積極擁抱。尤其大客戶對私有化部署大模型有強需求,我們團隊也具備很強的針對特定領域去判别和優化開源模型的能力。

雷峰網:ChatGPT崛起,有觀點認為RPA和低代碼這種細分賽道首當其沖,要被颠覆,您是怎麼看的?

汪冠春:這可能是因為不太了解企業服務市場又非常期待革新技術誕生颠覆而過快下的結論。

就說RPA,狹義上指的是互動界面自動化的能力,此時會出現的問題是:複雜流程下的較高開發成本,流程運作還是基于強規則。這也是為什麼今天隻有大企業做RPA項目的投資回報率比較高:能接受高開發成本,流程偏固定。

但有智能化的能力、有大語言模型加持,RPA開發變得更加柔性。AI可以更好了解很多場景,今天就可以通過自然語言的方式來開發RPA流程,而不是必須基于強規則。這時RPA的魯棒性和容錯性都變得更強,傳遞成本也進一步下降。大語言模型對狹義的RPA來說,肯定是利好。

而在廣義RPA的語境下,所有自動化和數字員工都可以了解成是RPA的延伸,ChatGPT和大預言模型是讓這個市場空間又增加了10倍甚至100倍。是以我相信RPA還在産品生命周期的上升期。

雷峰網:這類觀點會認為,企業是可以直接使用大模型、取代RPA的。

胡一川:我們看到已經有一些企業嘗試在使用ChatGPT等這類應用,但企業要大規模應用大模型,依然面臨挑戰。

一方面,ChatGPT、文心一言屬于偏C端的大模型應用,在企業業務場景下,執行業務動作的能力和效果不夠理想。比如你跟ChatGPT說分析上個月的銷售訂單,它肯定做不到,因為在哪裡擷取、怎麼自動化擷取銷售訂單,ChatGPT都不知道。當然,如果CRM系統有API,ChatGPT可以去調用。但這裡依然有兩個挑戰:第一,并不是所有系統都有适合大模型調用的API;第二,企業出于資料安全、合規等考慮不一定願意把API和資料提供給大模型。這時候還是需要RPA、IDP等各種能力去補位。

另一方面,企業落地大模型時,會有更多企業級的需求。比如,企業可能需要使用多個大模型,或者在使用過程中對不同人使用同一個大模型的權限進行管控,這都是企業級場景下會遇到的問題,ChatGPT并沒有考慮和解決。

雷峰網:二者其實應該強強結合,大模型“幫助”RPA去疊代進化?

胡一川:過去因為機器對自然語言的了解能力比較弱,人類員工與數字員工之間的互動,主要還是得靠軟體界面去互動,搭建RPA流程要手動拖拉拽。實際上,我們在工作裡要讓同僚去做什麼,肯定是直接給他發消息。現在大語言模型是補上了這塊的短闆,讓人類員工與數字員工之間能夠用自然語言去互動。

雷峰網:RPA規模化落地有什麼挑戰嗎?大模型能有什麼助力?

胡一川:我們觀察到RPA規模化落地有三點挑戰,首先是開發效率不高,RPA有成百上千條指令,開發者要先熟悉,按需要編寫;其次是維護成本太高,已經開發好的RPA機器人要跟着業務發生變化時,新來的維護人員未必能完全了解原有的流程;第三,業務場景實在是太多了,RPA不能覆寫完全,還得依賴工程師去編寫擴充指令。

是以我們這次推出了“魔法帽”(Magic Hat)這個産品,讓開發者通過自然語言去生成自動化的流程片段。也就是說,以前需要自己記住、編寫一條指令,現在可以直接告訴“魔法帽”,說希望這個機器人去幹什麼,它自動生成流程片段,提升RPA的開發效率。對于已經開發好的RPA流程,它可以直接閱讀、了解機器人在幹什麼,給維護人員提供注釋,提升RPA的可維護性。“魔法帽”也能夠幫助開發者去生成自定義的擴充指令,快速地複用到其他場景。

雷峰網:這個新的四層架構,引擎層是出于什麼考慮來設計的?

胡一川:過去,對于RPA而言,引擎層是相對簡單的,主要是基于業務規則去排程RPA機器人。有了大語言模型之後,引擎的能力大大提升,它讓數字員工真正具備了一個“大腦”。具體而言,借助大語言模型的推理能力,引擎層能夠讓數字員工将使用者的需求拆解成可執行的步驟和動作。有了這樣一個引擎層,使用者可以直接表達需求,機器人自己知道每一步應該做什麼。

雷峰網:企業想自主選擇內建哪個或多個大模型的時候,來也會怎麼做?

胡一川:這也是為什麼我們把模型層作為單獨一層,我們會接入多個非開源或開源的大模型,提供評估資料和評估工具,以及做好安全合規工作,然後把選擇權交給使用者。

雷峰網:過去半年的産品研發是圍繞着這個四層架構來做的,接下來的規劃是什麼?

胡一川:我們會繼續沿着現有四層架構進行規劃。在互動層,我們會內建主流的企業辦公協同工具,同時提供消息雙向合規檢測,讓企業員工在自己的辦公協同工具裡安全、合規的使用大模型驅動的數字員工;在引擎層,我們會給予大語言模型的推理能力去開發各種内外部API的管控和編控功能;在執行層,我們已經釋出了RPA“魔法帽”和下一代大語言模型驅動的智能文檔處理,我們還将釋出企業級插件中心,它相當于是企業内部的ChatGPT Plugin Store;在模型層,會跟ChatGPT、文心一言以及一些開源進行內建,并且提供大模型的評估資料和評估工具,供使用者在不同大模型時參考。

雷峰網:回到SaaS這個行業來看,可能今年上半年,悲觀的聲音更多一些。

汪冠春:其實中國的企業軟體公司一直都是處在Hard模式裡,很難做到增長和盈利的平衡。如果就是看最近幾年上市的中國SaaS龍頭企業,投資人一定是緊張和失望的。放到全球範圍來看,美國的SaaS公司在過去一年表現也比較慘淡,很對都估值回調50%甚至更多,當然這主要因為美國央行加息之後讓整個财務模型發生了很大變化。

但在中國首先客戶需求和市場規模增長都還是在不斷加速的。而且把時間線拉長到5-10年,低價惡性競争、服務與産品無法分離等問題還是會随着市場和生态逐漸成熟得到緩解,軟體公司的價值會更好地釋放出來。

投資人當下有回撤情緒很容易了解,但這時候也是反向思維,建倉抄底的好時候。

繼續閱讀