您現(xiàn)在的位置是:首頁 >動(dòng)態(tài) > 2020-11-13 09:35:49 來源:
隨著行業(yè)采用AI標(biāo)準(zhǔn)保險(xiǎn)公司的不確定性越來越高
隨著保險(xiǎn)業(yè)越來越依賴人工智能,其國家監(jiān)管機(jī)構(gòu)正在考慮如何確保該技術(shù)公平對待保單持有人。全國保險(xiǎn)專員協(xié)會(huì)上個(gè)月一致通過了AI公平,道德,負(fù)責(zé)和安全的指導(dǎo)原則。但是,對于剛剛開始使用的技術(shù),這些基本上是籠統(tǒng)的概念。
北美保險(xiǎn)公司執(zhí)行委員會(huì)成員,創(chuàng)新與技術(shù)工作組寫道,保險(xiǎn)公司,評(píng)級(jí)和咨詢組織“應(yīng)對任何人工智能系統(tǒng)的創(chuàng)建,實(shí)施和影響負(fù)責(zé),即使這些影響是意料之外的。”
NAIC人工智能工作組主席Jon Godfread在采訪中將這些原則描述為監(jiān)管機(jī)構(gòu)內(nèi)部討論的“理想文件”或“指南”。它們不承擔(dān)法律責(zé)任,也不是示范法規(guī)。
北達(dá)科他州保險(xiǎn)部專員戈德弗德(Godfread)表示:“這將是下一步AI監(jiān)管的起點(diǎn)。”
接下來的步驟可能是報(bào)告保險(xiǎn)公司使用AI和認(rèn)證流程的要求。認(rèn)證可能意味著第三方或內(nèi)部精算師將進(jìn)行檢查,以確保AI沒有隱含的偏見或?qū)嵤?ldquo;代理歧視”,這是當(dāng)計(jì)算機(jī)根據(jù)用作種族或其他特征的代理數(shù)據(jù)進(jìn)行選擇時(shí)發(fā)生的。
Godfread表示,監(jiān)管機(jī)構(gòu)需要更多有關(guān)AI是否已成為問題的信息。他說,該技術(shù)已被用于加速內(nèi)部流程,但該行業(yè)尚未達(dá)到“使用人工智能做出許多面向消費(fèi)者的決策”的地步。
國會(huì)研究AI
眾議院金融服務(wù)委員會(huì)人工智能特別工作組主席,美國伊利諾伊州眾議員比爾·福斯特(Bill Foster)在接受采訪時(shí)表示,NAIC正在與其他所有人一樣面臨同樣的問題:確定“公平和道德”的細(xì)節(jié)。 ”
福斯特描述了汽車保險(xiǎn)公司可能會(huì)使用有針對性的廣告來最大化獲利客戶的情況。如果設(shè)計(jì)了一種算法,通過對年輕人和年輕人收取相同的費(fèi)用來公平對待年輕人,那么婦女將是更有利可圖的顧客,因?yàn)樗齻兺秋L(fēng)險(xiǎn)較小的司機(jī)。該算法最終將找到性別代理,例如一個(gè)人訪問哪個(gè)網(wǎng)站。