印度電子和信息技術部在定於今年夏末舉行的大選之前向運營人工智能 (AI) 平臺的公司發出了重要警告。該警告主要針對擁有生成式 AI 平臺的公司,包括谷歌和 OpenAI 等行業巨頭,指示他們確保其服務不會產生可能損害選舉過程完整性的響應。
根據該諮詢意見,提供人工智能平臺的公司,尤其是向印度用戶提供測試不足或不可靠的人工智能系統或大型語言模型 (LLM) 的公司,必須標註其生成的輸出的潛在錯誤或不可靠性。此要求旨在告知用戶人工智能生成內容的侷限性,確保透明度和問責制。
印度的監管措施和立法意圖
該諮詢是印度可能採取立法行動規範人工智能平臺的先行行動。印度電子和信息技術部國務部長 Rajeev Chandrasekhar 強調,該諮詢表明政府打算有效出臺立法來控制生成式人工智能平臺。Chandrasekhar 是 2024 年大選的印度人民黨 (BJP) 人民院候選人,他表示,政府可能會要求企業展示人工智能平臺及其同意架構。
公司必須在 15 天內提交針對該諮詢的行動報告。他們必須遵守多項指令,包括在部署測試不足或不可靠的 AI 模型或 LLM 之前獲得印度政府的明確許可。此外,公司必須實施同意彈出窗口等機制,以告知用戶 AI 生成的輸出可能存在錯誤。
識別虛假信息和深度僞造
爲了打擊虛假信息和深度僞造內容的傳播,政府已指示公司爲人工智能生成的回覆添加永久唯一標識符。此舉旨在幫助識別任何虛假信息或深度僞造內容的發起者,從而提高在線平臺的問責制和透明度。
此外,該諮詢報告還要求所有使用人工智能模型的中介機構和平臺必須確保其計算機資源不會助長偏見、歧視或威脅選舉過程的完整性。政府旨在通過規範選舉過程以防止潛在的操縱或扭曲來規範人工智能技術。
印度政府向人工智能公司發出的諮詢意見強調了其對監管人工智能平臺和確保民主進程公正的承諾,尤其是在即將到來的大選之前。通過實施透明度措施和問責機制,政府旨在減輕與人工智能生成內容相關的風險,並打擊虛假信息和深度僞造的傳播。隨着公司準備遵守諮詢意見中概述的指令,印度圍繞人工智能技術的監管格局預計將發生變化,從而塑造該國數字治理和技術道德的未來。