要開發 AI 人工智慧演算法,必不可少的就是大量的數據庫,例如 OpenAI 旗下的 GPT-4,可能就使用了數以兆計的文本來訓練。另一方面,作為資訊提供方,如維基百科、網路學術文章、社交新聞平台等也受到重視,像是 Reddit 近期就擬定要向 AI 開發商收費。不過這種不斷餵養 AI 資料的做法並不會一直持續下去,OpenAI 執行長 Sam Altman 就表示,此類製造大型 AI 模型的時代已經結束。
這並不代表未來 AI 就不必接收新知,然而,Wired 援引 Altman 的說法,解釋要擴大 AI 資料庫,必會受到物理性限制,因為數據的上限取決於開發商能夠蓋出多大的數據中心,以及建造速度是否跟得上 AI 進展。
另外 Altman 也說到,擴大模型規模所獲得的成效已不如以往,但究竟 OpenAI 未來會以什麼方式來繼續訓練 AI 仍不得而知。Wired 推測他們可能會運用一種名為強化學習的方法,搭配人類的回饋,藉由人類決定 AI 答案是否合宜的方式來提升模型品質。