三、人工智慧(AI)對傳播的介入已逐漸成為真實,你覺得人工智慧可能造成那些傳播倫理問題?相關的因應之道為何?(25分)

人工智慧可能造成三種傳播倫理的問題,第一個問題是人工智慧所學習的資料,可能隱藏了社會上既存的偏見,人工智慧運用大型資料庫與演算法,極有可能加重了歧視性作為,導致『演算法的不公義』(algorithmic injustice),美國一些地區採用預防性警務(predictive policing),利用演算法掌握各社區的犯罪率,但此舉導致某族群的社區被認為是犯罪重點區域,而學者以紐約時報、路透社發布的新聞為樣本,利用人工智慧生成新聞,發現新聞用字遣詞有明顯的性別與種族偏見。

而其因應之道為重新訓練人工智慧,在新聞是運用人工智慧應用程式前,進行測試並進行調整,新聞編輯也要進行校隊,將可能產生錯誤族群的再現(represent),然後要請工程師來對演算法進行調整,過濾掉一些可能造成歧視的規則。

第二個人工智慧可能造成的傳播倫理的問題則是新聞問責及機構透明度的問題,人工智慧搜集碎片化的訊息,然後透過自動化新聞學,轉化成無數內容被變造的農場文,並進行運算宣傳,而閱聽人很難找到發布消息的人是誰,許多發布假新聞都是以假粉專的名義進行,無法負起責任,而且人工智慧技術也可以修改影片,讓政治人物、教宗、明星講一些未曾講過的話,顛覆新聞性『真實性』。

這種情形的因應之道則是透過民間的事實查核中心,防堵假新聞,人工智慧也可以作為防範或反制的工具,透過掃描其他的新聞文本,建立起判斷假新聞的指標,或是人工智慧也可以協助推廣正統媒體的正確報導,藉此對抗假新聞。

第三個人工智慧會導致的傳播倫理問題則是,機器學習時所使用的智慧財產權歸屬的問題,人工智慧從數以十計的網頁上撈資料,有作家寫的文章、藝術家的作品、盜版影片、社群媒體盜用的素材、新聞媒體所產生的內容,人工智慧在學習這些素材的時候,並沒有經過當事人的同意,侵犯了原作者的著作權。

而其因應之道則是,澳洲、歐盟等國家訂立媒體議價法案,要求平台對本地媒體分潤,或是新聞生產機構透過集體談判協商(collective bargaining codes),要求大平台的人工智慧若要使用媒體的資料進行學習前,需要獲得收權,包括美國新聞媒體聯盟、歐洲出版協會等十個組織聯名表達,人工智慧在毫無補償或引述原創者的情況下,運用媒體的內容,顛覆了媒介產業核心的營業模式。