3 月 7 日 WSJ 的一篇長文剛講述 Google 如何在過于謹(jǐn)慎和自我束縛下,錯(cuò)失了發(fā)布類似 ChatGPT 的聊天機(jī)器人的先機(jī),作者認(rèn)為高管在保持技術(shù)發(fā)展優(yōu)勢和維護(hù)倫理安全之間舉棋不定。
(相關(guān)資料圖)
一天后,Google 機(jī)器人團(tuán)隊(duì)、柏林理工大學(xué)和 Google 研究提出一種新的人工智能模型 PaLM-E,它由一組神經(jīng)網(wǎng)絡(luò)組成,可以處理不同形式的數(shù)據(jù),比如圖像、聲音、文本還有機(jī)器人控制策略,從而實(shí)現(xiàn)對機(jī)器人的控制和操作。
三方團(tuán)隊(duì)聯(lián)合發(fā)表的論文詳細(xì)解釋如何利用可視化數(shù)據(jù)增強(qiáng)語言處理能力。研究人員先使用大規(guī)模的圖像和文本數(shù)據(jù)集對一個(gè)深度學(xué)習(xí)模型進(jìn)行訓(xùn)練,以使其學(xué)習(xí)到一些通用的特征和知識,然后再在特定任務(wù)上進(jìn)行微調(diào),從而提高其對圖像和自然語言之間關(guān)系的理解,并在機(jī)器人控制等任務(wù)中發(fā)揮更好的作用。用來訓(xùn)練模型的 “素材” 包括圖像標(biāo)注、視覺問答和圖像分類等。
作者還舉例一些具體使用場景,包括:
-在機(jī)器人控制任務(wù)中,PaLM-E 可以根據(jù)自然語言指令和視覺輸入生成機(jī)器人控制策略。
-在視覺問答任務(wù)中,PaLM-E 可以根據(jù)圖像和自然語言問題生成相應(yīng)的回答。
-在機(jī)器手臂移動操作任務(wù)中,PaLM-E 可以根據(jù)自然語言指令和機(jī)器人狀態(tài)生成移動路徑和操作序列。
-在包含文本、圖像、聲音的多模態(tài)對話系統(tǒng)中,PaLM-E 可以理解用戶的自然語言輸入并生成相應(yīng)的回復(fù)。
根據(jù)研究小組的說法,他們曾引導(dǎo)機(jī)器手臂按照指示精確地將紅色塊移向目標(biāo)杯子 —— 即便訓(xùn)練數(shù)據(jù)中只有三個(gè)咖啡杯。
Google 的科研能力和資金儲備毋庸置疑,但如它們自己說的,研究原型和一款每天可以安全使用的可靠產(chǎn)品之間存在巨大差距。并且相較于小型創(chuàng)業(yè)公司,Google 必須更加深思熟慮地發(fā)布 AI 技術(shù)。
如在 WSJ 的報(bào)道中,兩名 Google 研究員兩年多前開始推動公司發(fā)布一款聊天機(jī)器人,后者可以自信地探討哲學(xué)問題,談?wù)撟约合矚g的電視節(jié)目,同時(shí)還可以即興制作有關(guān)牛和馬的雙關(guān)語,其技術(shù)比當(dāng)時(shí)其他任何聊天機(jī)器人都要先進(jìn)。
這遭 Google 高管們多次拒絕,理由是不符合公司對 AI 安全和公平性的倫理標(biāo)準(zhǔn)。兩位研究員丹尼爾和諾姆離職創(chuàng)辦自己的 AI 公司。Google 最近緊急發(fā)布的聊天機(jī)器人 Bard,部分基于二人的技術(shù)。
Google 對于推動人工智能技術(shù)應(yīng)用的擔(dān)憂主要來自兩方面,一是長期以來關(guān)于人工智能的爭議可能影響公司聲譽(yù),二是擔(dān)心因此沖擊自己的廣告業(yè)務(wù)。
第一個(gè)擔(dān)心長期存在于學(xué)術(shù)界和技術(shù)應(yīng)用領(lǐng)域。甚至 OpenAI 成立初衷之一也是希望有朝一日有能力對抗可能被大公司濫用(比如 Google)的邪惡 AI。
2016 年,微軟發(fā)布了一款名為 Tay 的聊天機(jī)器人,但僅僅上線數(shù)小時(shí)后,就在一些用戶 “調(diào)教” 下,發(fā)表了諸如 “布什是 ‘9·11’ 事件的幕后黑手” “希特勒一點(diǎn)也沒錯(cuò)” 等聳人聽聞的言論。
第二個(gè)則是不可避免的大公司病,即在維護(hù)現(xiàn)有的盈利模式和客戶群體、保持穩(wěn)定的現(xiàn)金流和市場地位,與持續(xù)創(chuàng)新以應(yīng)對市場變化和新興競爭對手的威脅之間搖擺,通常最后是前者戰(zhàn)勝后者,從而給了后來者機(jī)會。舊去新來是商業(yè)規(guī)律之一,也是商業(yè)世界的魅力。(邱豪 龔方毅)
關(guān)鍵詞: