Ang AI at algorithm ay lalong kumokon...

29/03/2025 08:18

Ang AI at algorithm ay lalong kumokon…

Ang AI at algorithm ay lalong kumokon……

Ang mga kumpanya ay lalong gumagamit ng mga algorithm at artipisyal na katalinuhan (AI) upang pag -aralan ang napakalaking halaga ng data na kanilang tinutulig tungkol sa amin upang magpasya kung anong mga produktong pinansyal ang kwalipikado namin at kung magkano ang babayaran namin para sa kanila.Ang mga sopistikadong tool na ito ay ginagamit ng mga bangko kapag gumagawa ng mga pagpapasya sa pagpapahiram, ng mga employer screening na aplikasyon ng trabaho, at, sa karamihan ng mga estado, sa pamamagitan ng mga kumpanya ng seguro sa bahay at mga premium.

Kung sinanay upang matiyak ang pagiging patas at kawastuhan, maaaring mapalawak ng AI ang pag -access sa kredito at mabawasan ang diskriminasyon na dulot ng bias ng tao.Kung hindi, maaari itong gumawa ng napakalaking pinsala sa pananalapi.

Halimbawa, kung itinanggi ng AI ang iyong aplikasyon sa pautang, walang paraan para malaman mo kung bakit ginawa ang desisyon na iyon o kung anong data ang ginamit.

“Sa marami sa mga modelo ng pag -aaral ng AI at machine, nag -vacuuming sila ng data mula sa social media, mula sa paggamit ng mga digital na apps sa iyong telepono, at wala kang ideya kung ano ang nasa database na mayroon sila,” sabi ni Chuck Bell, tagapagtaguyod ng patakaran sa pananalapi sa Mga Ulat ng Consumer.”Ito ay maaaring maging para sa ilang ibang tao na may katulad na pangalan, at hindi ikaw man.”

Karamihan sa mga aplikante ay walang ideya kung ang mga pagpapasya ay ginawa ng AI.At kahit na ginawa nila, ang proseso ng paggawa ng desisyon ay malabo, kaya hindi nila malalaman kung anong mga kadahilanan ang isinasaalang-alang.Ang tool ng AI ay maaaring mag -scrape ng impormasyon mula sa Internet tungkol sa aplikante na hindi tumpak o ganap na hindi totoo.

“Ito ang problema sa itim na kahon,” sabi ni Susan Weinstock, CEO ng non-profit na Consumer Federation of America.”Kung may masamang data na papasok, kukuha ka ng data ng basura,” sabi ni Weinstock sa isang kamakailang yugto ng ConsumerDia Podcast ngCheckBook.”At pagkatapos ay ang consumer ay ganap na nasa awa ng masamang data na iyon. Maaaring hindi alam ng mga regulator na ang algorithm ay bias.”

Noong nakaraang taon, ang mga ulat ng consumer at ang Consumer Federation of Americasent isang liham sa Consumer Financial Protection Bureauwning na ang “algorithmic discrimination ay maaaring lumitaw mula sa maraming mga mapagkukunan,” tulad ng “hindi nagpapahayag, hindi tama, o hindi kumpletong data ng pagsasanay, pati na rin ang data na sumasalamin sa mga makasaysayang biases.Mapipigilan nito ang mga komunidad ng kulay at mababang kita na mga mamimili mula sa pag-access sa abot-kayang kredito, sumulat sila.

Ang mga biases ay maaaring mai -embed sa mga modelo ng AI sa panahon ng proseso ng disenyo, tulad ng kapag ang “mga protektadong katangian,” tulad ng lahi, ay hindi wastong ginagamit nang direkta o sa pamamagitan ng mga proxies.

Halimbawa, ang isang database na nilikha para sa isang tool sa pagpapahiram ay maaaring magsama ng mga zip code, na maaaring mukhang isang neutral na kadahilanan sa nag -develop, ngunit maaaring magsilbing proxy para sa lahi, kita, kasarian, o relihiyon.

“Kapag mayroon kang diskriminasyon sa proxy, ipinaliwanag ni Bell,” diskriminasyon ka laban sa isang protektadong klase ng mga tao na karapat -dapat na paggamot, at hindi mo talaga binibigyang pansin ang katotohanan na nasasaktan sila ng iyong modelo.At iyon ang mahalagang sitwasyon na mayroon tayo. ”

balita sa Seattle SeattlePHI

Ang AI at algorithm ay lalong kumokon…

Tinanong ng CheckBook ang AI Association, isang pangkat ng kalakalan sa industriya, upang magkomento tungkol dito, ngunit hindi ito tumugon sa aming mga kahilingan.

Mga alalahanin sa consumer

Ang isang 2024 survey ng Consumer Reportsfound na ang karamihan sa mga Amerikano ay “medyo hindi komportable” o “hindi komportable” na may mga pagpapasya sa AI tungkol sa kanilang buhay, tulad ng pagsusuri ng mga panayam sa trabaho sa video (72 porsyento), mga potensyal na pag-upa sa pag-upa (69 porsyento), at paggawa ng mga pagpapasya sa pagpapahiram (66 porsyento).

Nang tanungin ni CR ang tungkol sa pag -apply para sa isang trabaho sa isang kumpanya na ginamit ang AI upang gumawa ng mga desisyon sa pag -upa, 83 porsyento ang nagsabing nais nilang malaman kung anong personal na impormasyon na ginamit ng programa upang gawin ang desisyon nito at 93 porsyento ang nagsabing nais nila ang pagkakataon na iwasto ang anumang hindi tamang personal na impormasyon na ang tool ng pag -upa ng AI.

Ang labis na kakulangan sa ginhawa sa pagpapahintulot sa mga makina na gumawa ng mga mahahalagang desisyon sa pananalapi ay maaaring maayos na itinatag.Ipinapakita ng pananaliksik na ang AI ay maaaring makagawa ng mga maling resulta at palakasin ang mga nakakapinsalang biases.

Ang mga tool na Generative AI ay “nagdadala ng potensyal para sa kung hindi man nakaliligaw na mga output,” mula sa Massachusetts Institute of Technology Cautions.Natagpuan din sila upang magbigay ng mga gumagamit ng “gawa -gawa na data na tila tunay.”Ang mga kawastuhan na ito ay “pangkaraniwan,” ang ulat na nabanggit, “Nakakuha sila ng kanilang sariling moniker; tinutukoy namin sila bilang ‘mga guni -guni.’

Kailangan ng mga bantay

Sinabi ng mga tagapagtaguyod ng consumer na naniniwala sila na ang mga bagong batas at regulasyon ay kinakailangan upang maprotektahan ang mga mamimili mula sa patuloy na pagpapalawak ng paggamit ng desisyon ng AI.

“Kailangan nating magkaroon ng isang pag -uusap tungkol sa kung paano maaaring maging patas at may pananagutan ang AI, at ginamit sa isang paraan na makakatulong sa mga mamimili kaysa sa pagpigil sa kanila,” sinabi ni CR’s Bell sa Checkbook.”[Dapat may] malinaw na pagsisiwalat ng kung kailan ginagamit ang mga tool ng algorithm, upang malaman ng consumer na ginagamit ang AI. At nais naming makita ang mga tao na mag -apela sa isang tao” kung tinanggihan ng isang algorithm ang kanilang mga aplikasyon.

balita sa Seattle SeattlePHI

Ang AI at algorithm ay lalong kumokon…

Nais ng mga ulat ng consumer na ang mga patakaran ng estado at pederal na mag -regulate kung ano ang dapat gawin ng mga kumpanya kapag ginagamit ang AI upang gumawa ng “mga kinahinatnan na desisyon” tungkol sa isang mamimili, tulad ng kung kwalipikado sila para sa isang pautang, napili para sa isang pag -upa sa apartment, kumuha ng isang promosyon, o makita ang kanilang seguro r …

ibahagi sa twitter: Ang AI at algorithm ay lalong kumokon...

SeattlePHI

balita sa Seattle

Mga Inirerekomendang Link ng Seattle

Instagram
Twitter
Facebook