建立一個真正由AI驅動的服務並不簡單。 所以,一些初創公司動起了歪腦筋——他們 讓人類模仿機器,而不是讓機器學習人類, 因為這樣成本便宜得多,也容易得多。
“使用人力來代替人工智能可以讓你跳過大量的技術和業務開發挑戰。它雖然無法像計算機那樣可升級,但卻能讓你跳過早期的困難部分,達到想要的效果。”ReadMe的 首席執行官Gregory Koberger說,他表示已經遇到過不計其數的“假AI”。
“這其實是在用真正的人力,來呈現AI應該有的樣子。”他說。
本週,華爾街日報的一篇文章曝光了這種做法,該文章揭露Google允許幾百名第三方應用開發者訪問用戶的收件箱。 Edison Software公司的總部位於San Jose,他們的AI工程師通過篡改身份信息,瀏覽了幾百名用戶的個人電子郵件,以改進“智能回复”功能。 問題是該公司並沒有在其隱私政策中提到過有人會查看用戶的電子郵件。
使用人工的做法見報已經不是第一次了。 2008年,一家將語音郵件轉換為短信的公司Spinvox被指控在海外呼叫中心使用人力,而不是人們以為的機器。
2016年,彭博社曝光了一些公司讓每天工作12小時的人工來“假裝”程序,在Chatbot裡進行自動日程設置服務。 想想就知道這項高重複性的工作有多枯燥而勞累,這些員工非常渴望AI能解放他們。
2017年,聲稱使用“智能掃描技術”處理收據的Expensify承認,公司一直僱用人力進行勞動。 收據的掃描文件被發佈在亞馬遜的Mechanical Turk眾包勞動平台上,由低薪工人進行閱讀和轉錄。
“我在想,Expensify智能掃描應用的用戶是否知道MTurk的工作人員能看到他們的收據單。” 一名MTurk的員工Rochelle LaPlante說道,“我們能看到每一個人用Uber叫車後收據上 的全名、上車和下車的地點。”
甚至是在AI上投入巨資的Facebook,都在使用人工來支持Messenger的虛擬助手。
在某些情況下,人工的參與可以用來訓練AI並提高其準確性。 一家名為Scale的公司提供許多人力來為自動駕駛汽車和其他人工智能係統提供“培訓”數據。 例如,這些人力會持續關注攝像頭或傳感器的反饋,並在視野中標記汽車,行人和騎行的人。 通過足夠的人工校準,AI能學會識別這些物體。
而另一種情況是, 有的公司在AI項目還沒完成研發時,就告訴投資者和用戶他們已經開發了可擴展的AI技術,但背地裡還會秘密地依賴人工勞動,直到研發成功 。
Alison Darcy是一位心理學家,她開發了一個名為Woebot的心理支持聊天機器人,並將此稱為“綠野仙踪設計技術”。
“我們盡量去模擬以接近最真實的情況。通常,有些AI的幕後其實是人工而不是算法。“她補充說,“建立一個完善的人工智能係統需要海量的數據,而設計者在進行投資之前 也想知道對服務的需求是不是足夠大。”
她表示,使用人工的做法不適合像Woebot這樣的心理支持服務。 “作為心理學家,我們遵守道德準則。不欺騙人顯然是需要遵守的道德原則之一。”她說。
研究表明,當人們認為自己正在與一台機器而不是一個人交談時,他們傾向於透露更多信息,因為尋求心理健康支持常常伴隨著病恥感。
來自USC的一個團隊用名為Ellie的虛擬治療師對此進行了測試。 他們發現,患有創傷後應激障礙的退伍軍人在他們知道Ellie是AI時,比知道有人在操作機器時更容易說出他們的症狀。
還有些人則認為公司應始終對其服務運營方式保持透明。
“我討厭那些假裝提供AI服務,實際卻僱用人類的公司。”LaPlante說,“這是不誠實的,是欺騙,這些都不是我在使用業務時想要得到的東西。作為一名工作者, 我感覺我們被推到了幕後。我不喜歡被一家向客戶撒謊的公司利用。”
這種道德上的考量也讓偽裝成的人類的真正AI更受歡迎。 最近的一個例子是Google Duplex,一個用來完成行程預定的機器人助手,它在打電話時竟能發出像人類一般的語氣詞,如“嗯”“呃”等,逼真得讓人害怕。
儘管遭遇過強烈反對,谷歌還是決定讓其AI在與人類對話時表明身份。
“在演示版本的普通對話中,人們對非常輕微的欺騙性很容易接受。”Darcy說,“用AI預訂餐廳可能不會有什麼問題,但這並不代表這項技術是無害的。”
比如,當AI可以模擬名人或政治家的聲音,打一個高度逼真的電話,情況就不一樣了。
Darcy認為,人們對AI已經懷有很大的疑慮甚至是恐懼,如果 無法得知自己面對的是人還是機器 ,AI反而無法在對話中起到幫助。
本文由 BitTiger© 授權 虎嗅網 發表,並經虎嗅網編輯。 轉載此文章須經作者同意,並請附上出處( 虎嗅網 )及本頁鏈接。 原文鏈接:https://www.huxiu.com/article/253822.html