Ad
Ad

Az AI gyors terjedése nem veszélytelen: olykor rosszul hasznosítják, más esetekben a szabályozás nem tart lépést a technológia fejlődésével, így sokszor „digitális vadnyugatként” is működik a piac. De mit tehetünk ezek ellen?

2026-ban a mesterséges intelligencia (AI) 70. születésnapját ünnepli, mint tudományos fogalom. Ez különösen meglepő annak fényében, hogy a technológia igazán csak a 2010-es években robbant be a köztudatba. Azóta viszont megállíthatatlan a fejlődése. Az AI ma már kulcsszereplője az innovációnak a rendelkezésre álló adatmennyiség, a felhőalapú számítástechnika, a fejlettebb hardverek és okosabb algoritmusok révén.

A mesterséges intelligencia terjedése számos veszélyt is rejt magában. A Sigma Software tapasztalatai szerint egyre több cég fordul hozzájuk AI-megoldásokkal kapcsolatos igényekkel. Ezek alapján született meg az alábbi útmutató.

Sikeres alkalmazások – a jó példákból tanulni érdemes

Számos vállalat már most is sikeresen használja az AI-t:

  • Amazon: AI segítségével 4500 fejlesztői évnyi munkát spóroltak meg a Java 7-ről Java 19-re való átállás során.
  • Lufthansa & Google: Közös projektjükben az AI optimalizálja a repülési útvonalakat, csökkentve az üzemanyag-fogyasztást és a szén-dioxid-kibocsátást.
  • Nike Fit: A számítógépes látás és AR segítségével pontos cipőméretet ajánl a vásárlóknak – reagálva arra, hogy az emberek több mint 60 százaléka rossz méretet visel.
  • Generatív AI-kísérlet Nigériában: 2024 nyarán diákok egy 6 hetes, AI-t is alkalmazó nyelvoktatási programban vettek részt. Fejlődésük egyes területeken csaknem kétévnyi tanulásnak felelt meg.
  • Ukrajna: az AI valós időben azonosítja a támadó drónokat és rakétákat, életeket mentve.

Tanulságos hibák

Nem minden AI-projekt végződik sikerrel. Íme néhány figyelmeztető példa:

  • McDonald’s & IBM: A drive-thru AI-rendszer nem tudta kezelni a különböző akcentusokat, egyszer 260 McNuggets-et ajánlott – a projektet 2024 nyarán leállították.
  • New York AI chatbot: Kisvállalkozóknak adott tanácsokat, sokszor hibás, sőt, jogsértő módon.
  • AI-alapú toborzás: Egyes rendszerek életkor alapján szűrtek ki pályázókat, vagy alacsony pontszámot adtak testbeszéd alapján, akár tévesen is.
  • Elfogult adathalmazok: Ha a tanítóadatok nem elég sokszínűek, az AI-rendszerek a meglévő társadalmi torzulásokat is felerősíthetik.

Európai AI-szabályozás

Ahogy egy tinédzsernek jogosítvány kell az autóvezetéshez, úgy az AI használatához is szükség van irányelvekre. Erre reagál az Európai Unió új AI Act-je, amelynek a teljes körű végrehajtása 2027-re várható.

A törvény kockázatalapú megközelítést alkalmaz:

  • Tiltott (unacceptable risk): Például társadalmi pontozás, arcfelismerés érzékeny kontextusban.
  • Magas kockázat (high risk): Például egészségügy, közlekedés – szigorú megfelelési követelmények.
  • Közepes kockázat (limited risk): Például chatbotok – egyértelmű jelölés szükséges.
  • Alacsony kockázat (minimal risk): Például AI-alapú keresőfunkciók – minimális szabályozás.

A megfelelés elmulasztása akár a globális bevétel 7 százalékáig terjedő bírságot is eredményezhet.

Milyen tanulságokat érdemes megfogadni?

  1. Kis lépésekben haladjunk – teszteljünk, skálázzunk, tanuljunk.
  2. Üzleti célokhoz igazítsuk a technológiát – ne fordítva.
  3. Ne hagyjuk a „shadow AI”-t elszabadulni – legyen kontroll és transzparencia.
  4. Építsünk interdiszciplináris csapatot – technológusokkal, jogászokkal, etikusokkal.
  5. Figyeljünk az adatminőségre – az AI csak annyira okos, amennyire az adatok azok.
  6. Ne feledjük az emberi tényezőt – az AI eszköz, nem cél.

A mesterséges intelligencia hatalmas lehetőségeket rejt – de csak akkor, ha felelősen és tudatosan alkalmazzuk. A jövő sikeres AI-rendszerei azok lesznek, amelyek technológiai erősségeiket etikai keretek között, emberközpontú módon használják fel. A jó AI nemcsak hatékony, hanem biztonságos, átlátható és igazságos is.

(A nyitókép mesterséges intelligencia felhasználásával készült.)

Discover more from KockázatiTőke.com

Subscribe now to keep reading and get access to the full archive.

Continue reading