ChatGPT 的暗影:前 OpenAI 員工揭露 AI 技術的隱憂
人工智慧(AI)技術正以前所未有的速度席捲各個領域,帶來無數創新與改變。然而,隨著 AI 技術的蓬勃發展,關於其安全性和倫理問題的爭議也日益加劇。近期,一位曾在 OpenAI 工作近四年的研究員 Suchir Balaji 公開批評了 AI 技術,並直言不諱地指出 AI 技術對社會的影響「弊大於利」。
Balaji 在 OpenAI 的工作內容主要是協助收集和整理大量網路數據,用以訓練 OpenAI 的聊天機器人 ChatGPT。他坦言,當時並沒有仔細思考 OpenAI 以這種方式使用數據是否合法或有授權,甚至相信 OpenAI 可以自由使用網路數據,無論其內容是否受版權保護。
然而,當 ChatGPT 在 2022 年推出後,Balaji 開始重新審視 OpenAI 的行為,並最終發現 OpenAI 使用受版權保護的數據屬於違法行為。他指出,ChatGPT 技術正在損害個人數位創作者、企業和網路服務的商業模式和盈利能力,即破壞網際網路的生態系統。因此,他最終選擇離開 OpenAI,不再為這種技術做出貢獻。
Balaji 的批評並非個案。許多曾效力於 OpenAI 或其他科技公司的研究員都曾發出警告,指出人工智慧可能造成嚴重危害,例如 AI 可能協助研發新型生化武器,並威脅人類生存。然而,Balaji 強調,人們應該關注迫在眉睫的威脅,尤其是 ChatGPT 已經開始破壞依賴大數據運營的行業。
Balaji 的言論引發了人們對 AI 技術的反思。AI 技術的發展固然令人興奮,但我們也必須謹慎思考其潛在的風險,並制定有效的監管措施,以確保 AI 技術的發展符合人類的利益。