[返回爱GPT首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

AI恐滅絕人類!350名專家最新連署:比照核戰正視風險

送交者: sc7s[☆★★声望品衔12★★☆] 于 2023-06-02 19:59 已读 574 次 1赞  

sc7s的个人频道

+关注

美國非營利組織「人工智慧安全中心」(Center fot AI Safety,CAIS) 30 日發布一份連署公開信,只有短短一句話「降低人工智慧(AI)滅絕人類的風險,應該與其他社會規模的重大風險,例如流行病和核戰爭一樣,成為全球優先事項」。包括Chat GPT母公司OpenAI的執行長山姆阿特曼、微軟、Google等科技公司執行長,以及AI相關專家學者等350多人都共同簽署。

「人工智慧安全中心」的公開信非常簡單明瞭,就是強調人工智慧有滅絕人類的風險,應該成為全球的優先事項,用對待核武戰爭相同的等級來正視這個風險。共同簽署公開信的除了阿特曼以外,還有研究人工智慧的先驅「AI教父」辛頓(Geoffrey Hinton)、Google人工智慧研究部門Deepmind的CEO、微軟首席科學官以及中國、美國等多國名牌大學的教授和科學家,共350多人。


「人工智慧安全中心」網站上也列舉出AI科技帶來的幾大風險,包括人工智慧掌握到研發藥物的工具,進而製造出生化武器;AI生成的海量虛假訊息,被國家、政黨、組織利用於說服他人,AI自行產生極具說服力但不正確的論述,所引發的嚴重後果;人類最終失去自我管理能力,必須完全倚賴機器等等。


今年5月中旬,美國參議院司法委員會隱私科技與法律立法小組召開「AI監管:人工智慧的規則」聽證會,OpenAI的執行長山姆阿特曼做為與會證人出席。會中,阿特曼也點出他對人工智慧科技發展的憂心,他強調,若AI技術跑偏將會產生嚴重問題,希望能對此直言不諱也願意與政府合作,他也提出3 點建議,「成立一個新的政府機構,負責授權大型AI模型,並撤銷不符合政府標準的公司許可證」、「為AI模型建立一套安全標準,評估其危險性」、「需要獨立的專家,獨立審查模型的各種指標表現」。

文章來源:Statement on AI Risk
喜欢sc7s朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助

打开微信,扫一扫[Scan QR Code]
进入内容页点击屏幕右上分享按钮

楼主前期社区热帖:

>>>>查看更多楼主社区动态...



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]