當訪談資料都上傳雲端
當訪談資料都上傳雲端
作者:陳美華(國立中山大學社會系特聘教授兼社科院長)
AI 的快速發展對人們日常生活的影響越來越明顯,學術場域也不例外。學界同儕在讚嘆生成式AI有助於編修英文、生成各種圖片的同時,學生用AI寫作業、交報告的情形越來越普遍,甚至出現AI生成虛假碩士論文書目的違規行為。當大家在享受科技發展的成果時,這些層出不窮的事例也可能引發倫理或違法的問題,也再再召喚發展使用 AI 的倫理框架的迫切性。
以質化研究的日常勞動為例,研究者的勞動模式深受科技物發展的影響。一直到2000年初,使用卡式錄音帶仍是主流,而逐字稿的繕打高度依賴連結一個可以腳踩來控制錄音帶播放的外接裝置來進行聽打。

圖為腳踏控制器 Datavideo FS-30
以踩踏操作暫停、倒回、快進。
待錄音筆出現後,笨拙的隨身聽被淘汰,多數研究者透過請工讀生逐字逐句聽打的方式繕打逐字稿。接著隨著AI語音辨識軟體的開發,儘管雅婷逐字稿準確度較不理想,但也快速地被欠缺研究資源的學生採用。如今這類語音辨識軟體的準確度越來越高,專業研究者也逐漸開始使用AI(例如,來自丹麥的 Good Tape,或美國公司、產地中國的 Plaud ai)自動生成逐字稿。速度之快經常就是彈指之間的事,研究人員通常只要稍加檢查其成品,就可以結束這個過往被視為最枯燥的研究階段。以此趨勢來看,九零年代中才剛取代傳統打字員而成為繕打市場新寵的電腦打字員,很快地也將被AI所取代。
然而,透過AI生成逐字稿,通常也會直接上傳雲端伺服器。這些被上傳的資料,預估也會成為下一波餵給AI的眾多資料的一部份,這對很多人而言,或許也不會造成太大的困擾。但對研究者而言就充滿著風險與不確定性。以質化訪談所取得的資料為例,很多個人資料對受訪者而言可能高度敏感,或關乎個人情感的資訊。也是在這個意義上,現行的研究倫理實作強調匿名、去識別、保存一段時間後由研究者銷毁等等,以保障研究參與者的權利。如今逐字稿完成時也同步上傳雲端,至於這些資料將會如何被處理或使用則沒有任何的說明。
雖然,這類軟體也會讓使用者以勾選的方式選擇是否釋出資料或關於隱私保護的說明,但這些AI開發商是否確實遵守這些規定似乎也無從得知。一個程度而言,如果持續以相同模式進行研究,不僅研究參與者無法掌握其個人資訊,連研究者都無法掌握這些資料的去向。絕大多數對研究歷程不熟悉的受訪者,很可能也不知道,她/他個人充滿記憶與情感的生命敘事或經驗,會成為資本驅動的雲端中的一個資料點,甚或在蘊涵著龐大商機的資料海中持續地被讀取、再製、分享與分潤。
這其實只是當前廣泛使用AI協作進行學術生產的眾多倫理問題之一。也是在這類相關的疑慮下,發展一個合乎倫理的AI使用框架成為各界的關注所在。如何將AI的使用倫理整合入現有的學術研究倫理框架,預估將是學術生產無可迴避的問題。
