Artificiell intelligens (AI) har på kort tid blivit en självklar del av vår vardag både som verktyg i arbetet och som samtalsämne i lunchrummet. Tekniken väcker fascination men också oro. Vad innebär det egentligen när digital teknik inte längre bara assisterar oss i vårt arbete utan också agerar som en slags ständigt närvarande digital kollega eller till och med vän?
För att förstå hur AI påverkar arbetslivet behöver vi sätta tekniken i ett historiskt perspektiv. Digitalisering har sedan datorernas intåg setts som en drivkraft för förändring, framförallt för effektivisering och förbättring av arbetsflöden. Men med AI-teknik ser vi ett skifte som inte längre endast handlar om att stödja mänsklig kompetens – utan också om att ersätta den. Till skillnad från traditionella IT-system som fungerar som verktyg för experter, kan AI generera ny kunskap mer eller mindre oberoende av mänsklig inblandning. Frågan är vad det är för kunskap som AI producerar? Och om den är användbar i praktiken, och i så fall för vem? Och kanske viktigast – är den bra för oss människor?
AI kan inte vara kritisk, ta perspektiv eller reflektera över moraliska eller normativa värdebegrepp som rättvisa och frihet. AI-system är kraftfulla på att identifiera mönster i stora datamängder, men har samtidigt ett så kallat ’frame problem’. Det innebär att den har svårt att avgöra vad som är relevant i en specifik situation – den saknar kontextförståelse – och är därför begränsad i sin förmåga att hantera situerade och komplexa frågor i arbetet.
AI-system så som chat-bottar är dessutom designade att vara empatiska, hjälpsamma och personliga. De tenderar att bekräfta oss och ge oss de svar som den tror att vi vill ha. Det gör det lätt att förledas och tro att de svar vi får är neutrala och objektiva när de i själva verket baseras på information som vi har matat AI:n med. Detta kan förstärka bekräftelsejäv, alltså att man varit involverad i tidigare beslut eller bedömning, och på så sätt är partisk vid bedömning av informationen AI genererar.
AI-bottars trevliga, välformulerade och bekräftande ton tilltalar på så vis något djupt mänskligt och socialt hos oss som gör det extra svårt att se igenom och förhålla sig kritisk till det den säger. Det diskuteras till och med om människor kan utveckla parasociala relationer till AI-system. Det kan kännas som att AI:n “bryr sig” och ”förstår mig”, även om det egentligen är en simulering av omtanke och empati. Ett parasocialt förhållande är ett ensidigt känslomässigt band som en person utvecklar till någon de inte har en verklig relation med, t ex en offentlig person men det har mer och mer börjat användas även i mänsklig relation till AI. Dessa sociala mekanismer som gör att vi litar på AI blir särskilt problematiska när AI inte har något svar, det som brukar kallas att AI ’hallucinerar’, dvs tvärsäkert ger falsk information när den inte har tillräcklig kunskap för att svara. När detta sker riskerar vi att ta beslut baserat på felaktiga underlag, vilket gör det extra viktigt att förstå både teknikens begränsningar och behovet av mänsklig närvaro i beslutsprocessen.
Sammantaget aktualiserar dessa egenskaper hos AI vikten av ständig mänsklig närvaro, omdömesförmåga och etisk medvetenhet, även när AI till synes löser uppgiften vi ber den om. Vi behöver ha expertis att kunna prompta rätt, alltså ge AI en tillräckligt tydlig kontext, samt expertis i sakfrågan så att vi kan tolka innehållet som genereras och förstå när AI hallucinerar.
Inom yrken som bygger på mänskliga möten, som exempelvis vården, aktualiserar AI viktiga etiska frågor om ansvar, tillit och det mänskliga samspelet. När kommunikationen förflyttas från människa till AI förändras förutsättningarna för relationen mellan vårdpersonal och patienter. AI-system används allt oftare i beslutssituationer, trots att både personal och patienter kan ha begränsad förståelse för hur systemen fungerar. När tekniken får en mer aktiv roll i vårdmiljön uppstår nya gränsdragningar kring ansvar mellan utvecklare, designers och yrkesutövare. Dessa förändringar behöver uppmärksammas och diskuteras som en del av den bredare etiska och praktiska förståelsen av AI:s roll i arbetslivet.
När AI tar över rutinuppgifter som att sammanfatta dokument, sortera information eller generera textutkast, förändras också våra arbetsroller från att vara utförare till att bli granskare, redaktörer och beslutsfattare – i samspel med AI. Ett konkret exempel på AI:s påverkan på arbetslivet är från banksektorn, där AI-system automatiserar bedömningen av låneansökningar. I en vetenskaplig studie visade det sig att kvalificerade bankkonsulter upplevde att deras yrkesroll degraderades när AI tog över centrala arbetsuppgifter. Samtidigt fick mindre kvalificerade medarbetare möjlighet att ta över konsultrollen, vilket förändrade status och ansvarsfördelning.
Båda grupperna upplevde en brist på kontroll över beslutsgrunderna, och de seniora konsulterna utvecklade strategier för att återta sin professionalitet. Detta illustrerar hur AI kan omforma yrkesidentiteter och skapa nya dynamiker i arbetslivet. AI i arbetet innebär på så vis att arbetsgrupper kan behöva omförhandla sina rutiner och roller. Vi vill poängtera att det är viktigt att alla på arbetsplatsen har förståelse för konsekvenser av AI på yrkesroller, och att de får vara med och bestämma vad AI ska och bör göra.
AI väcker också frågor runt arbetsmiljö och vad vi faktiskt gör med vår tid på jobbet. Många uppgifter kan automatiseras med AI, men vad gör vi med tiden som frigörs? Och hur säkerställer vi att vi inte bara fyller den med fler arbetsuppgifter, utan också skapar mervärde för oss själva, våra kollegor och de vi är till för? Det är frågor som blir allt viktigare, särskilt i en tid då effektivisering ofta ses som ett självändamål. Om lättare arbetsuppgifter försvinner och det bara blir tyngre och mer kognitivt belastande uppgifter kvar på arbetsplatsen, kan man också ställa frågan vad detta innebär för arbetsintegrerat lärande, när lärande sker i och genom arbete. Det finns en risk att vi förlorar värdefulla moment av lärande, eftertanke, kreativitet och mänsklig kontakt om vi automatiserar för mycket. Har man inte vana att hantera och fullt förstå de enklare uppgifterna så kan man heller inte kritiskt granska AI:ns arbete med dessa uppgifter.
Ofta bygger lärande dessutom på att man börjar med enklare rutinuppgifter för att sedan bygga på med mer komplexa uppgifter. Om de enklare stegen i arbetet skärs bort från människan och byggs in i AI, kan denna kunskap upplevas som ‘blackboxad’ och svår att packa upp och härleda och man saknar ett tydligt beslutsunderlag för mer komplexa frågor. En vetenskaplig studie om kunskapsförmedling i organisationer som använder AI, visar hur så kallade ’knowledge brokers’ får en allt viktigare roll när algoritmer blir svåra att förstå. När AI-system är blackboxade – det vill säga att det är oklart hur de kommer fram till sina beslut – blir det svårt för användare att granska och ifrågasätta resultaten.
I studien ser man hur mellanhänder, som inte själva förstår algoritmens logik, ändå förväntas översätta dess output till meningsfull information för beslutsfattare. Detta kan leda till att AI-systemens beslut accepteras utan insyn, och att mänskliga mellanhänder i praktiken ersätter algoritmen med egna tolkningar, vilket i sin tur skapar nya kunskapsgränser snarare än att överbrygga dem. För att bygga lärande arbetsplatser där människor utvecklas och samspelar på ett klokt sätt med AI menar vi att det är viktigt att vi inte bara fokuserar på vad AI kan göra, utan också på vad vi vill att den ska göra – och vad vi vill behålla som genuint mänskligt i våra arbetsprocesser.
För att samarbetet med AI ska fungera krävs att vi både kan lita på att systemen fungerar som förväntat och att vi har kompetens att förstå dess begränsningar och risker för att kunna avgöra när mänsklig bedömning är nödvändig. Vi behöver dessutom vara medvetna om vår egen expertis i relation till det AI-genererade innehållet – för att kunna granska, tolka och justera det utifrån mänskligt omdöme.
AI kan vara ett kraftfullt stöd, men det mänskliga omdömet är fortfarande avgörande. Det är vi människor – som professionella, kollegor och medborgare – som i slutänden måste avgöra vad som är relevant, rimligt och etiskt. Och det är vi som bär ansvaret för det AI hjälper oss att producera.
Helena Vallo Hult
Utvecklingsledare, NU-sjukvården
Universitetslektor i informatik med inriktning arbetsintegrerat lärande (AIL), Högskolan Väst
Livia Norström
Universitetslektor i informatik med inriktning arbetsintegrerat lärande (AIL), Högskolan Väst
Tips på litteratur och fördjupning:
Anthony, C., Bechky, B. A. and Fayard, A. L. (2023). Collaborating with AI: Taking a System View to Explore the Future of Work. Organization Science, https://doi.org/10.1287/orsc.2022.1651.
Lebovitz, Sarah; Levina, Natalia; and Lifshitz-Assaf, Hila. 2021. Is AI Ground Truth Really True? The Dangers of Training and Evaluating AI Tools Based on Experts’ Know-What, MIS Quarterly, (45: 3) pp.1501-1526.
Murray, A., Rhymer, J. and Sirmon, D. G. (2021). “Humans and Technology: Forms of Conjoined Agency in Organizations”. Academy of Management Review, 46 (3), pp. 552-571.
Strich, F., Mayer, A. S., & Fiedler, M. (2021). What do I do in a world of artificial intelligence? Investigating the impact of substitutive decision-making AI systems on employees’ professional role identity. Journal of the Association for Information Systems, 22(2), 9.
Van den Broek, E., Sergeeva, A., & Huysman, M. (2021). When the Machine Meets the Expert: An Ethnography of Developing AI for Hiring. MIS quarterly, 45(3).
Waardenburg, L., Huysman, M., & Sergeeva, A. V. (2022). In the land of the blind, the one-eyed man is king: Knowledge brokerage in the age of learning algorithms. Organization science, 33(1), 59-82.
Avsnitt i Akademus-podden med Helena & Livia när de pratar om AI i arbetet:
Referat om AI och narrativ medicin av Helena:
Referat från Narrativ Rond på Hagabion i Göteborg den 26 september 2024. Arrangerad av Svensk förening för Narrativ Medicin. https://allmanmedicin.sfam.se/p/allmanmedicin/nr-4-2024/a/artificiell-narrativ-medicin/1919/1732977/58840843