Elévülni látszik a Google keresőjének "tévedhetetlensége"

2024. jún. 17.

A mesterséges intelligenciáról szóló releváns diskurzus 2022-es kezdete óta a legnagyobb figyelem az OpenAI vállalaton van, ám a keresőóriás Google-nek sincs oka szerénykedni, ha e téren elért fejlesztésekről van szó. A világ egyik legnagyobb cégének azonban láthatóan nem tesz jót, ha futni kell a riválisok után, ugyanis bizonyos alkalmazásai elég rosszul sültek el. Ott volt például a ChatGPT-t követően sürgetve piacra dobott Bard chatbot, amit a vállalat fejlesztői is "beteges hazudozóként" írtak le, és mára ott tarunk, hogy eredeti formájában megszűnt létezni, ugyanis beépült a Geminibe.

Az összeolvadás révén sikerült ugyan kiküszöbölni a chatbot nagyobb hibáit, de a multifunkciós Gemininél is gyorsan kibújt a szög a zsákból. Amikor az Egyesült Államokban elérhetővé tették a képgeneráló funkciót, éppen ellentétes hibába futott bele, mint a korábbi hasonló fejlesztések, tehát nem szexista, vagy rasszista volt, hanem túlságosan "woke". Ez abból látszott, hogy amikor az amerikai alapító honatyákról kértek képeket a felhasználók, fekete és ázsiai nőket dobott ki a rendszer, sőt még a náci katonákra is hasonló eredményeket jelenített meg. A Google elismerte a hibát, és azt is, hogy túlságosan politikailag korrektté akarták tenni a fejlesztést, ellensúlyozva a korábbi hibákat - a botrány miatt le is állították a képgenerálási opciót. 

A májusi konferenciájukon ezután bejelentették, hogy emelik a tétet, és beépítik az úgynevezett AI Overview funkciót a naponta több milliárd ember által használt Google keresőbe - teszt jelleggel először csak az USA-ban  vált elérhetővé az opció. A keresőbe integrált MI-megoldás lényege az lenne, hogy gyors összefoglalót adjon nekünk az általunk feltett kérdésre. Sajnos azonban itt sem kellett sokat várni, hogy kijöjjenek a fejlesztés hibái: gyors, velős összegzések helyett ugyanis sokszor ostoba, néha pedig kifejezetten veszélyes tanácsokat kaptak az embrek.

Amikor arról kérdeztek az AI Overview-t, hogy hány muszlim elnöke van az Egyesült Államoknak, azt válaszolta, hogy: „Az Egyesült Államoknak egyetlen muszlim elnöke volt, Barack Hussein Obama.” Ez elég rosszul cseng egy olyan időszakban, amikor az USA-ban választásokra készülnek, az egyszerű félretájékoztatáson túl pedig életveszélyes tanácsokat is adott a funkció. Arra, hogy miként lehet megoldani, hogy a sajt jobban tapadjon a pizzára, az MI azt válaszolta, hogy ragasztót kell használni. Emellett volt olyan eset is, amikor egy kamu kutatásra hivatkozva arra biztatott egy felhasználót, hogy naponta egyen meg legalább egy követ.

Felmerül a kérdés, hogy honnan szed ilyen információkat a kereső, ha a privát, esetenként vicces beszélgetésekre nem lát rá. Nos, a hírek szerint a probléma onnan származhat, hogy év elején a Google szerződést kötött a Reddittel, melynek értelmében az itt található tartalmakból szemezget az MI. A fórumon pedig köztudott, hogy sokszor nem épp a tudományosan alátámasztott, hiteles információk terjednek. A Google jelezte, hogy a rendszer egy éven át tartó tesztelése alatt nem találkoztak hasonló baklövésekkel, így minden bizonnyal elszigetelt jelenségről lehet szó. Mindenesetre közölték, hogy felülvizsgálatot tartanak, és igyekeznek javítani a hibát.