国产精品久久久午夜夜伦鲁鲁,亚洲一级视频在线观看,国产伦精品一区二区三区妓国产,AAAAA女高潮免费视频

品牌咨詢:

0571-89937200
美國專利局拒絕認定AI的所有發(fā)明權(quán)
時間:2020-07-06 17:14:07    閱讀:2877

「你不是人!」——美國專利局(USPTO)。

這句話是美國專利局,對所有人工智能說的。

4月27日,美國專利局出臺一項規(guī)定:對于任何由人工智能獨立設(shè)計發(fā)明的產(chǎn)品,因為AI不是自然人,所以無權(quán)申請專利成為發(fā)明者。

而AI發(fā)明產(chǎn)品專利的最終歸屬,至今沒有任何一個國家有明確規(guī)定。

一個水杯開啟的AI倫理之爭

2018年,美國的一位人工智能研究者Stephen Thaler向美國專利局和歐洲專利局(EPO)提交了兩份專利申請,一個是方便機械臂抓握的可變形飲料杯,另一個是應(yīng)急燈。

這兩個產(chǎn)品,是Thaler自己研發(fā)的人工智能DABUS獨立設(shè)計發(fā)明的。

DABUS發(fā)明的水杯

USPTO和EPO分別在去年12月和今年2月拒絕了這兩項AI發(fā)明的專利申請。理由相同:在現(xiàn)行法律下,只有人類才能申請持有專利。

而美國專利局在4月27日發(fā)布的文件中,正式規(guī)定了今后任何人工智能都無權(quán)以發(fā)明者的身份申請或持有專利。

三方自說自話,AI專利問題可能永遠無解

美國政府出臺的規(guī)定并不能阻止科研者為AI爭取「人權(quán)」的努力。

Stephen Thaler為了讓DABUS合法申請持有專利,專門成立了「Artifitial Inventor」組織,廣羅支持AI「人權(quán)」的科學(xué)家、哲學(xué)家、倫理學(xué)家發(fā)文宣傳;還集合了歐美最優(yōu)秀的專利律師,百折不撓地和政府專利部門辯論過招。而且這個組織的法律資源向全球開放,任何需要幫助的AI發(fā)明專利都可以聯(lián)系幫助。

美國專利局提出過一項折中方案,即將這兩項產(chǎn)品專利歸在Stephen Thaler本人名下,但Thaler和他的Artifitial Inventor律師團隊斷然拒絕。

Artifitial Inventor的律師爭論的核心觀點是:Thaler沒有參與任何發(fā)明過程,也根本不懂容器或應(yīng)急燈設(shè)計,所有智力成果皆出于DABUS,所以專利只能屬于人工智能,而不是開發(fā)人工智能的人。

對于Thaler提出的觀點,美國專利局,及歐洲專利局根本不予回應(yīng),他們認為,問題關(guān)鍵不是智力成果的出處,而是非人智能體根本沒有申請專利的合法資格。

至于爭論的原始問題,即「這個發(fā)明到底算誰的」,專利局沒有給任何解答。

歐美法學(xué)專家對于「AI專利權(quán)」的態(tài)度是模棱兩可的,當被問及這個問題時,大部分人先是陳述現(xiàn)行的法律規(guī)定,然后列舉對AI倫理問題的擔(dān)憂。

而關(guān)于「如果AI發(fā)明不能屬于AI,那它是否屬于人?」、「發(fā)明一詞的法律定義是否已經(jīng)落后社會和科技發(fā)展」這種直擊要害的問題,歐美法學(xué)家給不出令人信服的回答。

世界知識產(chǎn)權(quán)組織(WIPO)已經(jīng)開始了關(guān)于「AI專利權(quán)」的調(diào)查研究,并計劃于今年召開一次研討會,希望能對現(xiàn)行專利法提出改進意見。

關(guān)于AI倫理的討論

AI專利權(quán)的困境,本質(zhì)上是人類對AI沖擊人類自身價值和規(guī)則的擔(dān)憂。

《2001太空漫游》中的HAL首次讓人類真實感受到人工智能的危險

早在1950年,控制論之父維納在他那本著名的《人有人的用處:控制論與社會》一書中就明確提出了對人工智能的擔(dān)憂:「這些機器的趨勢是要在所有層面上取代人類,而非只是用機器能源和力量取代人類的能源和力量。很顯然,這種新的取代將對我們的生活產(chǎn)生深遠影響?!?/span>

今天,這種擔(dān)憂隨著AI技術(shù)日趨成熟變得越發(fā)真實可見了。

為了平衡科技與社會認知的發(fā)展一致性,很多AI領(lǐng)域的研究者努力提出AI倫理的解釋和規(guī)范。

2019年3月28日,斯坦福以“人為本AI研究院”(HAI )正式成立,李飛飛和哲學(xué)家John Etchemendy共同擔(dān)任院長。

李飛飛提出了AI發(fā)展的應(yīng)遵循的規(guī)則:

1、AI技術(shù)應(yīng)該受到人類智能的啟發(fā);

2、人工智能的發(fā)展必須以人的影響為指導(dǎo);

2、AI的應(yīng)用應(yīng)該增強人類,而不是取代它們。也就是說,人工智能的應(yīng)用是增強人類的能力,為人類賦能,而不是取代人類。

2018年6月8日,谷歌也公布了使用AI的7項原則:

1、對社會有益。

2、避免制造或加劇社會偏見。

3、提前測試以保證安全。

4、由人類承擔(dān)責(zé)任,即AI技術(shù)將受到適當?shù)娜祟愔笇?dǎo)和控制。

5、保證隱私。

6、堅持科學(xué)的高標準。

7、從主要用途、技術(shù)獨特性、規(guī)模等方面來權(quán)衡價值。

這些AI行業(yè)的領(lǐng)導(dǎo)者的AI倫理闡述都是宏觀的愿景,核心是AI必須造福人類且不能威脅人類的存在價值。

而上文提到的專利問題難點在:假如通過申請就是承認機器與人有平等的法律地位,人類的獨特性和價值被抹殺;如果簡單的把專利給寫AI算法的人,違背了「發(fā)明」的法律定義。

至于如何將AI倫理指導(dǎo)思想應(yīng)用到上述實際案例中,需要政策制定者和法學(xué)界不斷的探索,當下很難給出解答。

我們還是回到最初的問題吧:

你認為AI發(fā)明的產(chǎn)品專利到底應(yīng)該屬于誰?你支持所謂的AI「人權(quán)」嗎?


轉(zhuǎn)載自“量子位公眾號”--杭州樂邦科技,專業(yè)網(wǎng)站建設(shè)服務(wù)商,專注網(wǎng)站開發(fā)18年。

我要直達 網(wǎng)站建設(shè) 小程序 VR全景