Romania

Recomandarile Insurance Europe asupra ghidului etic lansat de Comisia Europeana cu privire la Inteligenta Artificiala


Ghidul etic lansat de catre Comisia Europeana cu privire la Inteligenta Artificiala si la elementele pe care aceasta tehnologie trebuie sa le respecte pentru a putea fi considerata de incredere a fost amendat de catre Insurance Europe, care sustine ca, desi apreciaza eforturile Comisiei Europene in acest sens, sunt necesare noi consultari pe marginea ghidului etic si revizuirea acestuia, in viitorul apropiat, se arata in raspunsul Insurance Europe catre Comisia Europeana pe marginea acestui subiect.

Insurance Europe, federatia europeana ce reuneste asociatiile nationale ale asiguratorilor si reasiguratorilor, intelege importanta dezvoltarii, proiectarii si implementarii unei Inteligente Artificiale etice si centrate pe om si felicita grupul de experti al Comisiei Europene (High-Level Expert Group in Artificial Intelligence - AI HLEG) pentru eforturile depuse pentru realizarea unui ghid etic pentru entitati de Inteligenta Artificiala care sa poata fi considerate de incredere.

Cu toate acestea, regreta perioada de consultare pe marginea acestui ghid - perioada care, chiar daca ar fi fost extinsa cu doua saptamani, tot ar fi fost mult prea redusa -, si solicita Comisiei Europene si expertilor sai sa se asigure ca urmatorii pasi includ si o perioada de consultare rezonabila (de exemplu, opt saptamani).

Insurance Europe arata ca industria de asigurari este un domeniu puternic reglementat si supravegheat la nivel national si european si, implicit, considera ca o Inteligenta Artificiala de incredere e deja asigurata. In plus, industria de asigurari are o experienta vasta in utilizarea, in mod responsabil si sigur, a datelor si a noilor tehnologii. Institutia e de acord cu evaluarea HLEG privind potentialele beneficii ale Inteligentei Artificiale asupra societatii si bunastarii umane. Cu toate acestea, pentru a exploata aceste beneficii, este esential ca orice cadru care reglementeaza si/sau furnizeaza ghiduri de orientare cu privire la proiectarea, dezvoltarea si implementarea Inteligentei Artificiale nu doar isi propune sa previna potentialele prejudicii aduse drepturilor fundamentale, ci ofera si o abordare favorabila viitorului si inovatiei.

Federatia mai solicita HLEG si integrarea principiilor neutralitatii si proportionalitatii in ghidul respectiv, pentru a garanta astfel eficienta acestor principii, protejarea drepturilor fundamentale si promovarea Europei ca un competitor tehnologic la nivel global.

Per ansamblu, ghidul se concentreaza asupra perspectivei individuale/cetatenesti si asupra modului in care oamenii pot fi afectati de Inteligenta Artificiala. Desi Insurance Europe este de acord ca aceasta ar trebui sa fie principala directie, trebuie subliniat faptul ca, intr-un context business to business (B2B), multe companii nu au contact direct cu persoanele fizice. Intr-adevar, entitatile de Inteligenta Artificiala de incredere sunt extrem de importante in context B2B, ceea ce se schimba este atentia asupra unor cerinte diferite. De exemplu, intr-un mediu B2B, acuratetea algoritmilor si transparenta devin mai relevante decat etica referitoare la persoane. Astfel, atrage atentia Insurance Europe, HLEG trebuie sa includa contextul B2B in acest ghid, deoarece, in momentul de fata, acesta lipseste.

Ghidul Comisiei Europene, mai arata Insurance Europe, poate fi un instrument folositor in centralizarea unei abordari construite pe factorul uman, mai ales daca este privita alaturi de legislatia in vigoare care protejeaza oamenii de potentialele prejudicii care pot fi cauzate de tehnologie (GDPR etc.). In acest sens, Insurance Europe vrea sa stie cum vor fi implementate acest ghid si principiile sale in companiile care opereaza in Europa. De asemenea, Insurance Europe se intreaba cum se vor asigura institutiile europene ca acest ghid va fi aplicat eficient si respectat nu doar de catre companiile din UE, ci mai ales de catre cele din afara UE, dar care isi comercializeaza produsele si serviciile in interiorul Uniunii Europene.

De asemenea, expertii Insurance Europe isi exprima teama asupra ingrijorarilor pe termen lung, care, astazi, nu au fost inca identificate. In acest sens, Insurance Europe ar sprijini realizarea si implementarea unui sistem de monitorizare, care, anual, sa identifice si sa avertizeze cu privire la riscurile sau pericolele legate de folosirea Inteligentei Artificiale. Mai mult, luand in considerare nivelurile diferite de autonomie ale Inteligentei Artificiale, expertii Comisiei Europene si ghidul etic propus ar trebui sa puna accentul pe o abordare bazata pe risc. In acest context, masurile pe care o companie ar trebui sa le ia pentru a preveni potentialele riscuri ar trebui sa depinda de nivelul de autonomie al Inteligentei Artificiale folosite.

Metodele non-tehnice, mai arata Insurance Europe, n-ar trebui sa lipseasca din acest ghid, de vreme ce metodele non-tehnice sunt mult mai importante in definirea unei entitati etice de Inteligenta Artificiala. O organizatie trebuie in primul rand sa asimileze prinicipiile etice, prin coduri de conduita, campanii de educatie si constientizare, sa permita astfel metodelor tehnice sa fie unele de succes. Cu alte cuvinte, sustine Insurance Europe, metodele non-tehnice ar trebui sa conduca spre metode tehnice. De asemenea, desi o competitie eficienta intr-o economie de piata n-ar trebui sa ofere un raspuns pentru orice problema, ar putea fi de mare ajutor in definirea unei Inteligente Artificiale etice. Chiar si astazi, reputatia si ratingul unei companii sunt elemente importante in decizia consumatorilor. De exemplu, o companie care respecta legea, dar nu da dovada de etica se va alege cu o reputatie stirbita si, cel mai probabil, multi clienti vor opta pentru un alt furnizor.

Nu in ultimul rand, Insurance Europe atrage atentia si asupra studiului de caz cu privire la primele de asigurare. In acest sens, Insurance Europe sustine ca este crucial ca expertii Comisiei Europene sa ia in considerare natura specifica a asigurarilor si, implicit, sa o interpreteze in mod adecvat, astfel incat cele 10 "porunci" pentru o Inteligenta Artificiala de incredere sa poata fi adaptate la modelul de business si produsele din industria de asigurari. Prin urmare, interpretarea corectitudinii trebuie sa ia in considerare principiul pretului bazat pe risc, care este fundamental pentru o piata eficienta, pentru asigurari solide pentru consumatori si pentru stabilitatea financiara a companiilor de asigurari.

Raspunsul complet al Insurance Europe poate fi consultat AICI.

Sursa foto: Insurance Europe


Share |


Editor: Cristian SUCA | Publicat pe 08.02.2019

Cele mai recente stiri:
» Toate societatile, obligate sa detina asigurare de raspundere profesionala
» PAID Romania a platit daune de 1,24 mil. lei in T1 2019, de peste 5 ori mai mult decat in urma cu un an
» Numarul 9 al revistei "Universul INTER" a fost lansat
» UNIQA Asigurari a platit prima transa de 12,5 mil. lei pentru dauna de la fabrica Solina
» VIDEO: Paul CARTY: Unele tari aleg sa completeze IDD cu elemente noi, ceea ce nu este un lucru de dorit
» Lege: Persoanele juridice care organizeaza servicii de urgenta au obligatia sa asigure personalul
» TRANSGAZ organizeaza o licitatie pentru achizitionarea de polite RCA
» Insurance Europe saluta revizuirea sistemului de supraveghere financiara la nivel european
» VIDEO: Ce risca un turist care nu are asigurare auto si produce un accident in strainatate?
» Cei mai buni angajatori ai anului 2018, premiati in cadrul Galei AON Best Employers






Create Account



Log In Your Account