OpenAI及Anthropic同意推出新款人工智慧模型前 將交由美國人工智慧安全研究所評估

OpenAI及Anthropic稍早同意在推出新款人工智慧模型前,將交由美國政府所屬人工智慧安全研究所評估模型性能,以及可能潛在風險,確保新技術不會產生負面影響。

美國政府所屬人工智慧安全研究所是在拜登政府於2023年一項人工智慧相關行政命令下成立,主要任務是協助開發測試、評估,並且提出相關指導方針,確保人工智慧技術能在安全情況下使用,同時避免產生非必要的負面影響。

而在相關協議中,人工智慧安全研究所將能在人工智慧業者推出新款人工智慧模型之前取得相關存取權,甚至在後續也能持續存取,以利其測試、評估作業可順利進行,而相關評估研究作業也將與英國人工智慧安全研究所合作,藉此確認各類模型是否安全,以及是否產生負面影響。

除了OpenAI及Anthropic,包含Google在內業者似乎也已經與人工智慧安全研究所進行合作討論,藉此在政府監督情況下順利推動其人工智慧應用服務,避免面臨政府機構對其服務產生質疑。

另一方面,加州政府近期也通過人工智慧安全法案「SB 10147」,要求開發成本超過1億美元,或是具備一定算力規模的人工智慧模型必須進行安全測試,同時也要求業者必須針對此類人工智慧技術加上「安全開關」,一旦人工智慧技術功能走偏或出現失控情況即可使其停止。

相比聯邦政府規定,加州政府提出法案有更高約束力,若人工智慧業者不配合,甚至引發相關問題情況下,加州總檢察長有權對此提起訴訟。而加州人工智慧安全法案目前仍需再進行一次投票表決,並且由加州州長Gavin Newsom於9月底簽署纔會成爲正式法令。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》