Läkare undersöker just nu potentialen hos OpenAI:s ChatGPT-språkmodell för att underlätta arbetet. Men än så länge finns det riskfaktorer.
En artikel i Wired uppmärksammar att läkare nu intresserar sig för hur AI-språkmodeller kan hjälpa till med att hitta information i digitala hälsojournaler eller förse patienter med sammanfattningar av långa och för lekmän svårbegripliga anteckningar. Men det finns också kritiska röster som varnar för att Ai-tekniken kan vara opålitlig och ge felaktiga svar som leder till en felaktig diagnos eller behandlingsplan.
ChatGPT har visat sig vara ett användbart verktyg för uppgifter som att sammanfatta text, så länge som användaren vet att en AI-tjänst kanske inte är 100 procent pålitlig och kan generera felaktiga resultat. Det har därtill noterats att AI-genererad text kan påverka människor på subtila och inte alltid önskvärda sätt. Det finns alltså, i alla fall för närvarande, en avsevärd riskfaktor att räkna med.