OpenAI推出一款可定制化隱私保護工具"OpenAI Privacy Filter",能夠自動識別并屏蔽文本中的個人身份信息,同時適用于AI模型訓(xùn)練數(shù)據(jù)的清洗處理。
該模型周三正式發(fā)布,可識別姓名、日期、賬戶號碼、信用卡號及電子郵件地址等敏感信息,用戶還可根據(jù)自身需求和隱私政策對其進行微調(diào)。
Privacy Filter最關(guān)鍵的特性在于支持本地運行。待處理的敏感數(shù)據(jù)無需上傳至服務(wù)器,可直接在設(shè)備端完成脫敏,從而降低數(shù)據(jù)在傳輸過程中的暴露風(fēng)險。
此次發(fā)布被OpenAI定位為"構(gòu)建更具韌性的軟件生態(tài)系統(tǒng)"的一部分,其戰(zhàn)略意圖指向AI開發(fā)工具鏈的底層基礎(chǔ)設(shè)施。該模型現(xiàn)已在Hugging Face和GitHub上以Apache 2.0許可證開源發(fā)布,支持商業(yè)部署與二次微調(diào)。
OpenAI官網(wǎng)展示的屏蔽效果如下,輸出文本相較于輸入文本隱去了私人信息:
![]()
功能定位:處理非結(jié)構(gòu)化文本中的敏感數(shù)據(jù)
OpenAI Privacy Filter所針對的是如何有效清洗文本數(shù)據(jù)中的個人隱私信息。隨著企業(yè)對AI合規(guī)使用的要求日趨嚴格,此類工具的市場需求正持續(xù)上升。
在檢測類別上,Privacy Filter覆蓋八類標簽:私人姓名、私人地址、私人郵箱、私人電話、私人URL、私人日期、賬號信息以及密鑰/密碼。
與傳統(tǒng)基于規(guī)則的PII檢測工具相比,Privacy Filter的核心差異在于上下文感知能力。傳統(tǒng)工具依賴固定格式匹配(如電話號碼、郵箱格式),難以處理語義模糊或依賴上下文的隱私判斷。
Privacy Filter依托預(yù)訓(xùn)練語言模型的語言先驗,能夠區(qū)分屬于公眾信息的實體與涉及私人個體的信息,從而在"該屏蔽什么"的判斷上更為精細。
同時OpenAI GTM 團隊成員特別提到該模型支持本地運行,待處理的敏感數(shù)據(jù)無需上傳至服務(wù)器,可直接在設(shè)備端完成脫敏,從而降低數(shù)據(jù)在傳輸過程中的暴露風(fēng)險。
![]()
不過,OpenAI在模型說明中明確指出了若干重要局限。Privacy Filter并非匿名化工具,也不等同于合規(guī)認證,無法替代高風(fēng)險場景下的人工政策審核。在法律、醫(yī)療、金融等高敏感領(lǐng)域,仍需人工復(fù)核與領(lǐng)域?qū)僭u估。
開源策略:從產(chǎn)品競爭轉(zhuǎn)向生態(tài)布局
此次發(fā)布與OpenAI過去數(shù)月持續(xù)加大開源力度的路徑一致,反映出其在商業(yè)模式上的多維布局。一方面通過API和ChatGPT等產(chǎn)品直接變現(xiàn),另一方面通過開放模型和工具鞏固開發(fā)者生態(tài)。
Privacy Filter以Apache 2.0許可證發(fā)布,允許免費商業(yè)使用和修改,許可條款相對寬松。
OpenAI同步公開了模型架構(gòu)、標簽體系、解碼控制機制、評估方案及已知局限等技術(shù)文檔,以便開發(fā)者團隊充分了解模型的能力邊界。
OpenAI表示,此次發(fā)布為預(yù)覽版,目的是收集研究社區(qū)和隱私領(lǐng)域從業(yè)者的反饋,并在此基礎(chǔ)上進一步迭代模型性能。
其長期愿景是使隱私保護基礎(chǔ)設(shè)施"更易于檢查、運行、適配和改進",并將Privacy Filter定位為"AI系統(tǒng)應(yīng)學(xué)習(xí)世界知識,而非學(xué)習(xí)私人個體信息"這一原則的技術(shù)實踐。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.