
Data Science-teamet på Job&Talent ansvarar för att leverera banbrytande AI-intelligens till företagets produkter och erbjudanden. Detta omfattar både kundorienterade frontfunktioner i appen och mer underliggande förbättringar som framtidssäkrar vår infrastruktur. Utöver att utveckla, testa och implementera AI-modeller tar Data Science-teamet en aktiv roll. De leder tankesättet kring etisk och ansvarsfull användning av AI i kommersiella sammanhang. Detta leder till förbättrade upplevelser för kunder, arbetare och interna intressenter.
Man säger att data är den nya oljan i företagsekonomin. I dagens era av analys och AI märks sanningen i detta överallt, och bemanningsbranschen är inget undantag. Avancerade verktyg och tekniker har blivit en integrerad del av arbetsflödet för varje konkurrenskraftigt bemanningsföretag, från AI-baserade rekryteringsrobotar till maskininlärningsapplikationer som optimerar personalplanering och -hantering.
AI-applikationer är av naturen datahungriga, och inom AI och maskininlärning har data två roller. För det första krävs en betydande mängd kurerat och formaterat data för att träna privata, skräddarsydda modeller för användning i produkter och verksamheter. Detta data måste bearbetas genom maskininlärningsalgoritmer (som trädbaserade klassificerare eller neurala nätverk).
För det andra behövs data i tillämpningsfasen, kallad "inferens" i maskininlärningsvokabulären, för att köra förutsägelser på tränade modeller och ta fram prognoser och rekommendationer. På grund av detta stora beroende av data i sådana applikationer är en legitim oro att säkerställa dataskydd, integritet och säkerhet. Hur kan vi utnyttja datans kraft på ett ansvarsfullt sätt samtidigt som vi skyddar den känsliga information den innehåller?
Navigera bland bästa praxis för dataskydd
I Europeiska unionen utgör dataskyddsförordningen (GDPR) det rättsliga ramverket för dataskydd. Men vad innebär det faktiskt för hur dataexperter hanterar och bygger AI-applikationer i sitt dagliga arbete?
På Job&Talent ser vi datahantering genom flera olika linser. För AI-system fokuserar vi på två typer av data: data för träning och data för inferens, vilket motsvarar de två användningsmetoderna som beskrivs ovan. Det är viktigt att notera att det finns andra sätt att klassificera data, till exempel synen på data i rörelse och vilande data – ett paradigm som mer allmänt används av dataingenjörer.
Ansvarsfull datainsamling och träning
För dataträning börjar processen med ansvarsfull datainsamling. Vi strävar efter att samla in data som är användbar för våra modeller och maskerar eller tar bort all information som inte direkt uppfyller detta syfte. Våra AI-system är utformade för att undvika insamling eller användning av personuppgifter (PII) eller identifikationer, såsom namn, telefonnummer och e-postadresser, eftersom de ofta har litet värde i beskrivande eller prediktiv analys. Istället förlitar vi oss på slumpmässigt tilldelade unika numeriska identifierare, som kund-ID, för att indexera data.
Dessutom, när vi förbereder data för träning, är vi noga med att utesluta alla beskrivningar som är privata eller potentiellt diskriminerande till sin natur, såsom ålder, inkomstgrupp eller etnicitet, även om de kan ha prediktivt värde. Denna praxis gör att vi kan förhindra potentiellt partiska rekommendationer från modellerna längre fram, och minskar riskerna med att lagra känsliga data under träningsprocessen.
Säkerställa säkerhet under inferens
Avancerad robotteknik och automatiserade system blir allt viktigare i miljöer som lagerhantering och logistik. I en sådan miljö finns ett direkt gränssnitt mot användare vars privata information kan vara involverad. För att minska riskerna implementerar vi robusta säkerhetsprotokoll och lager i våra AI-tjänster, såsom strikt autentisering, validering av indata och vitlistning.
Dessa metoder skyddar våra system från obehöriga förfrågningar och förhindrar injektion av skadlig kod. De håller interna svar begränsade till kända och betrodda tjänster. Dessutom följer vi bästa praxis som att kryptera data när det överförs mellan tjänster, kassera onödiga indata efter användning och validera utdata för att säkerställa säkerheten.
Ansvarsfull användning av generativa AI-modeller
Inte alla modeller är tränade, särskilt i eran av generativ AI, där kommersiella stora språkmodeller (LLM) används allt mer för affärsapplikationer. När man använder dessa modeller tar ansvarsfull dataanvändning en annan form.
GenAI-modeller används huvudsakligen i inferensläge, och på Job&Talent använder vi dem på två sätt. För kommersiella tredjepartsmodeller som OpenAI eller Anthropic AI, eller plattformar som AWS Bedrock eller MS Azure AI, säkerställer vi att användningsvillkoren och dataskyddet överensstämmer med våra egna standarder för engagemang för skydd av användardata. Vi säkerställer också en policy för noll datalagring så att inga av indata kan lagras eller användas för träningsändamål.
När vi använder LLM med öppen källkod – som Metas Llama3 eller Mistral AI:s Mixtral 7B-modell – även om modellen inte är tränad av oss genomför vi omfattande tester för att identifiera och mildra vanliga problem med GenAI såsom hallucinationer, olämpliga utdata, partiska resultat eller felaktiga beräkningar. Forskningsgemenskapen är aktiv med att ta fram definitiva riktmärken för att säkerställa säkerhet och efterlevnad för LLM-användning, och att hålla sig uppdaterad med dessa standarder är avgörande för framgångsrik AI-användning.
Det mänskliga ansvaret i AI
I slutändan är dagens AI-teknik inte en självstyrande oberoende enhet. Som AI-utövare och ingenjörer ansvarar vi för att träna, säkra och verifiera dessa system i våra applikationer. Ett genomtänkt, användarcentrerat tillvägagångssätt är avgörande för att bygga förtroende och tillförlitlighet i dessa AI-system, som redan snabbt förändrar vårt sätt att arbeta och det värde vi tillför våra användare.
Intresserad av ansvarsfull AI? Boka en demo för att se hur våra AI-lösningar kan hjälpa ditt företag, eller läs mer om hur AI kan förbättra de mänskliga kopplingarna inom bemanning på vår digitala plattform.