108高考新聞學三、人工智慧(AI)對傳播的介入已逐漸成為真實,你覺得人工智慧可能造成那些傳播倫理問題?相關的因應之道為何?

三、人工智慧(AI)對傳播的介入已逐漸成為真實,你覺得人工智慧可能造成那些傳播倫理問題?相關的因應之道為何?(25分)

 

 

人工智慧凸顯了以下幾點的倫理考量:

一、資料蘊藏了社會既成的認知偏差

第一個問題是人工智慧所學習的資料,可能隱藏了社會上既存的偏見,人工智慧運用大型資料庫與演算法,極有可能加重了歧視性作為,導致『演算法的不公義』(algorithmic injustice),美國一些地區採用預防性警務(predictive policing),利用演算法掌握各社區的犯罪率,但此舉導致某族群的社區被認為是犯罪重點區域,而學者以紐約時報、路透社發布的新聞為樣本,利用人工智慧生成新聞,發現新聞用字遣詞有明顯的性別與種族偏見。

因應之道

而其因應之道為重新訓練人工智慧,在新聞是運用人工智慧應用程式前,進行測試並進行調整,新聞編輯也要進行校隊,將可能產生錯誤族群的再現(represent),然後要請工程師來對演算法進行調整,過濾掉一些可能造成歧視的規則。

 

二、公共問責問題

人工智慧搜集碎片化的訊息,以自動化新聞學,轉化成無數內容被變造的農場文,並進行運算宣傳。而閱聽人很難找到發布消息的人是誰,許多發布假新聞都是以假粉專的名義進行,無法負起責任。

因應之道

這種情形的因應之道則是透過民間的事實查核中心防堵假新聞。人工智慧也可以作為協助防堵假新聞的工具,透過掃描其他的新聞文本,建立起判斷假新聞的指標,或是人工智慧也可以協助推廣正統媒體的正確報導,藉此對抗假新聞。

 

三、智慧財產權歸屬問題

機器學習時所使用的智慧財產權歸屬的問題,人工智慧從數以十計的網頁上撈資料,有各種著作權人創作、盜版影片、社群媒體盜用的素材、新聞媒體所產生的內容,人工智慧未經同意就襲奪受著作權保護的內容。

 

因應之道

 

美國新聞媒體聯盟、歐洲出版協會等十個組織聯名表達,人工智慧在毫無補償或引述原創者的情況下,運用媒體的內容,顛覆了媒介產業核心的營業模式。

新聞生產機構透過集體談判協商(collective bargaining codes),要求人工智慧若要使用媒體的資料進行學習前,需要獲得授權,一些新聞機構將過時的資料給人工智慧開發商進行訓練。