AI-fejlesztések menedzsment kihívásai
Az IVSZ tagvállalatai is elérkeztek ahhoz a ponthoz, amikor ügyfeleik AI-fejlesztéseket várnak el tőlük. A Vállalati Digitalizációs Munkacsoport egy zártkörű eseményt szervezett tagjai számára, ahol erre az időszakra felkészítő előadást hallgathattak meg Mihályi Antaltól, a Google Engineering Managerétől. A szakértő a MENTA ’24 konferencián bemutatott AI Backstage című előadásának a munkacsoport számára frissített változatát osztotta meg a résztvevőkkel.
Mihályi Antal vezeti azt a budapesti csapatot, amely a Google Vertex AI Conversations fejlesztésén dolgozik, így a résztvevők első kézből kaptak áttekintést a Google legfrissebb AI-fejlesztéseiről és terveiről. Az előadás különösen hasznos volt azoknak a cégeknek, amelyek AI-fejlesztések bevezetését tervezik, hiszen értékes menedzsment tanácsokat is kaptak a Google szakértőjétől.
Az AI-fejlesztés területe jelentősen eltér a hagyományos szoftverfejlesztéstől, a megszokott módszerek sokszor nem alkalmazhatók. Gyakran kimarad például a részletes tervezési fázis, helyette a kutatásra és kísérletezésre helyeződik a hangsúly, miközben az iterációs ciklusok egyre rövidebbek. Ez komoly nyomást gyakorol a fejlesztőcsapatokra.
Fontos, hogy a távoli jövőkép felvázolása mellett rövid távú célokat határozzanak meg, és legyen lehetőség a gyors visszajelzésre, az elért eredmények rendszeres elismerésére. Emellett kulcsfontosságú a kudarcokból és a hibákból való tanulás, mivel a gyors tempójú fejlesztés gyakran zsákutcában végződik. A menedzsmentnek bátorítania kell az újrakezdést, és el kell érnie, hogy a munkatársak a változást természetes folyamatként kezeljék.
A résztvevők kérdései elsősorban az AI-fejlesztések biztonsági kihívásaira irányultak, mivel az ügyfelek adatbiztonsággal kapcsolatos aggodalmait kezelni kell. A nagy techcégek, mint a Google, kiemelt figyelmet fordítanak a felelős AI-fejlesztésekre, beleértve a szabályozások betartását is.
Egy vállalati környezetben elkerülhetetlen a kérdés, hogy saját fejlesztéseket indítsanak, vagy inkább meglévő AI-platformokra támaszkodjanak. A menedzsment számára mérlegelendő, hogy a nagy nyelvi modellek (LLM) fejlesztése költséges és időigényes, ezért gyakran hatékonyabb lehet a már meglévő platformok használata.