天天看點

美軍AI武器化,“反殺”操作員,剛上“車”,就想焊死“車門”

作者:盧忠誠TALK
美軍AI武器化,“反殺”操作員,剛上“車”,就想焊死“車門”

這些年,伴随着無人機的大規模應用,如何将人工智能(AI)武器化,也成為了衆多國家選擇的一個發展方向。不過,這些天美國似乎在這方面栽了跟頭。

據英國《衛報》的消息,美國空軍近期在和英國皇家航空協會,組織一場針對人工智能(AI)并入無人機系統的測試。但是從結果來說卻比較糟糕。

美軍AI武器化,“反殺”操作員,剛上“車”,就想焊死“車門”

在一開始,工程師為AI進行了一個規則上的搭建,比如在運作過程中,擊毀目标、殺傷敵軍,這些行為可以獲得“積分”,而AI的目标是在運作過程中取得更多的“積分”。然而,在運作中,AI明顯開始進行濫殺無辜來賺取“積分”的操作。于是,操作員釋出讓AI停止行動的指令後,反而導緻AI将消滅目标鎖定在操作員身上,“反殺”操作員。

在第二次測試中,美軍這邊調整了規則,不允許AI襲擊己方操作員,否則會扣除“積分”。但很快,在接到停手指令後,AI開始攻擊通訊頻道,破壞操作員和AI的聯絡通道。換句話說,在AI的視角裡,隻要接不到停手的指令,就可以持續進行擷取“積分”的行為。

美軍AI武器化,“反殺”操作員,剛上“車”,就想焊死“車門”

挺搞笑的是,基于這個情況,美軍方面出具的報告裡面就認為,人工智能正在改變目前的社會和軍事,但這種“工具”一旦處理不好,就可能導緻人類的滅亡。但事實上,如果仔細看這個測試,你就會發現,美國佬的這個結論,看似有道理,可實則完全是廢話和誤導。與其說這是人工智能AI,不如說是一個美國做了一個有明顯缺點的自動化程式。

這段程式裡,将“擷取積分”的優先級調整到最高,然後人為創造一個較低優先級的障礙,讓AI無法擷取積分。那隻能迫使AI解決或者繞開“障礙”,來擷取積分。相當于是把汽車的油門焊死,結果出了事情卻問“為什麼開車的時候不注意觀察”是一樣的。

美軍AI武器化,“反殺”操作員,剛上“車”,就想焊死“車門”

另外,就我個人的看法,美軍這份報告裡的“結論”,恐怕是另有目的。在不久前,大概5月30日,當時美國一個“人工智能安全中心”的組織,就搞了一個聯名活動,找了一堆美國AI領域的專業人士和高管,聲稱“AI堪比核彈和疫情,有滅絕人類的風險”,然後呼籲其他國家不要發展AI領域。說穿了,就是自己“上了車”,然後準備把車門“焊死”,不準其他人上來。本質上,依舊是霸權主義思維那一套,見不得别人好。

因為到目前為止,該領域都沒有取得真正意義上的“智能”,目前階段的“人工智能”不過是大資料的統計,配合上強大算力進行的統計、歸納、回報。大量的AI在實際應用中,更多的不像是“人工智能”,反而像是一個“人工智障”。美國佬一天天老覺得“AI危險”,實際是美國不幹人事,各類反人類操作,留下的固有條件反射。

而這一次美軍和英國搞的這個AI武器化,本質上和之前的活動大同小異,都是一種制造焦慮的戰略性輿論誤導。而以目前的全球AI領域發展程度,基本是可以看做是美國對中國的一次戰略欺詐。