Artificiell Intelligens i Life Science

- En växande kraft för innovation & regelefterlevnad

Artificiell intelligens (AI) har på senare tid kommit att utgöra en central roll inom Life Science, där den inte bara fungerar som ett kraftfullt verktyg för att driva industriell effektivisering utan också som en motor för innovation. Men med den ökade användningen av AI väcks också frågor kring säkerhet, best practice och efterlevnad av regelverk. Organisationer inom Life Science-industrin står inför utmaningen att navigera i detta komplexa landskap med krav på riskhantering och ansvarsfull användning av AI.

En historisk översikt och en blick framåt

 

Användningen av AI inom Life Science är ingen nyhet. Maskininlärnings- och Deep learning-algoritmer har redan länge använts inom forskning och utveckling samt inom industriella tillämpningar. Men med den snabba tillväxten av generativ AI har landskapet för AI förändrats dramatiskt, vilket också innebär att det regulatoriska ramverket måste anpassas. Trots att tekniken har kommit längre än regelverken finns det redan riktlinjer och standarder som syftar till att främja bästa praxis och adressera risker och säkerhetsaspekter inom organisationer.

 

Den Europiska Unionens AI-förordning – AI Act

 

Ett betydande steg framåt togs när Europaparlamentet den 13 mars 2024 antog AI Act, EU:s AI-förordning. Denna förordning bygger på ett riskbaserat tillvägagångssätt där AI-system klassificeras i olika riskkategorier beroende på deras påverkan på samhället. Med tydliga förbud mot system som utgör oacceptabla risker och strikta krav för högriskapplikationer, syftar AI Act till att etablera ett ramverk för ansvarsfull användning av AI.

AI acts riskkategorier är följande:

 

  • Oacceptabel risk: Applikationer och system som hamnar i denna kategori anses vara ett tydligt hot mot människors säkerhet, levebröd och rättigheter. Exempel är system som använder biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser, eller som utnyttjar sårbarheter hos grupper av människor på ett skadligt sätt. Dessa är förbjudna enligt AI-förordningen.

 

  • Hög risk: Bland annat inkluderar detta AI-system som används inom kritisk infrastruktur, utbildning eller anställning. Det gäller även AI-baserade medicinska produkter, eller AI-baserade komponenter till medicinska produkter, som täcks av MDR och IVDR. För dessa system tillkommer krav för riskhantering, dataförvaltning, dokumentation, arkivering, transparens, mänsklig tillsyn och cybersäkerhet.

 

  • Begränsad risk: Detta gäller för AI-system som interagerar med fysiska personer, till exempel AI-baserade chattrobotar. Dessa har transparenskrav där det ska vara tydligt för användare att de interagerar med ett AI-system.

 

  • Minimal eller ingen risk: Detta är en oreglerad kategori där till exempel spamfilter ingår.

 

Särskilda regler gäller för AI-system som klassas som General purpose AI, det vill säga system med breda tillämpningsmöjligheter, till exempel ChatGPT. Tillverkare av dessa system måste uppfylla specifika krav för riskhantering och dokumentationskrav för övervakning och efterlevnadskontroll av systemet. Förordningen förväntas träda i kraft i maj/juni 2024 och efter det sker en stegvis implementering. Efter 6 månader förbjuds system med oacceptabel risk och för General purpose AI så börjar restriktionerna gälla efter 12 månader. För system som faller under MDR eller IVDR börjar AI Act gälla efter 36 månader. Det europeiska ministerrådet har skapat ett European AI Office som ska se till så att AI Act tillämpas och att det finns vägledning för efterlevnad.

 

Hoppa inte på AI-tåget utan att först ha tagit hänsyn till dokumentation och riskhantering. Se det som en påminnelse om vikten av att balansera spänning med säkerhet vid införandet av AI. Har du koll på de senaste riktlinjerna från EU och FDA? Du behöver säkerställa så att ditt företag skyddar känslig data samtidigt som best practice för AI-användning följs.

AI inom Life Science är mer än bara en trend, det är en väletablerad metod för forskning och utveckling. Myndigheter som FDA och EMA, strävar efter att inte bara främja innovation utan också säkerställa hög kvalitet och dataintegritet. Är du redo att omfamna denna teknik? Då väntar en uppsjö av möjligheter och även en del utmaningar på vägen.” – Tanya Al-Khafaf, Konsult Plantvision Compliance.

 

Framväxten av EMA:s Big Data Steering Group & USA:s Executive Order

 

Initiativet från EMA (European Medicines Agency) med Big Data Steering Group markerar en betydelsefull milstolpe i användningen av avancerade teknologier inom Life Science-sektorn.
Genom att skapa denna grupp för att styra utvecklingen och främja ansvarsfull användning av AI visar EMA sitt engagemang för att föra branschen framåt på ett hållbart och etiskt sätt. Tidsplanen som sträcker sig över fem år visar på en genomtänkt och långsiktig strategi för att integrera big data-analys och AI-teknik på ett effektivt sätt.

Förutom AI act på EU sidan så har EMA (European Medicines Agency) tillsatt en big data steering group med syfte att driva utveckling av och ansvarsfullt användande av AI. Gruppen har publicerat en tidsplan från 2023 till 2028, som innehåller bland annat guidelines och workshops. Redan i år ska de börja ta fram riktlinjer specifikt för läkemedelsutveckling och AI.  Genom att skapa denna grupp för att styra utvecklingen och främja ansvarsfull användning av AI visar EMA långsiktig strategi för att integrera big data-analys och AI-teknik på ett effektivt sätt.

Att EMA redan från början inriktar sig på att utveckla riktlinjer specifikt för läkemedelsutveckling och AI är av särskild vikt. Det understryker behovet av att anpassa teknologin till branschens unika krav och utmaningar. Genom att formulera dessa riktlinjer kan EMA bidra till att skapa en enhetlig och transparent ram för användningen av AI inom medicinsk forskning och utveckling.

Diskussionen om ansvarstagande AI som förs inom ramen för detta initiativ är också av central betydelse. Det är inte bara viktigt att teknologin är effektiv utan också att den används på ett etiskt och rättvist sätt. Frågor som integritet, rättvisa och sociala konsekvenser måste vägas in när man utformar riktlinjer och ramar för användningen av AI inom Life Science. Genom att ha ett fokus på dessa aspekter kan EMA hjälpa till att säkerställa att teknologin gynnar samhället som helhet och inte bara vissa intressenter.

Det är uppmuntrande att se att EMA tar ledningen i att främja ansvarsfull användning av AI inom Life Science. Detta visar på deras engagemang för att främja innovation samtidigt som de tar hänsyn till de bredare konsekvenserna av teknologins användning. Med Big Data Steering Group positionerar sig EMA som en föregångare inom branschen och sätter standarden för hur AI bör integreras på ett hållbart och etiskt sätt.

 

Executive order för ansvarsfullt användande av AI

 

Hösten 2023 utfärdade President Joe Biden en exekutiv order som fokuserade på säkert utvecklande och användande av artificiell intelligens (AI). Den här ordern markerar en betydelsefull strategisk riktning för USA:s hantering av AI och visar på den ökande medvetenheten om behovet av att reglera och övervaka teknologins användning. Genom att betona ansvarfull användning av AI och uppmana federala myndigheter att skapa riktlinjer och standarder tar Biden-administrationen ett proaktivt steg för att adressera de potentiella riskerna som är förknippade med AI-användning.

 

FDA:s roll i framtidens regleringar

 

FDA (Food and Drug Administration), är den amerikanska myndigheten för livsmedel och läkemedel. FDA har ännu inte implementerat ett ramverk för användningen av artificiell intelligens (AI), men under 2023 publicerade de två diskussionsunderlag som utforskar användningen av AI/ML inom läkemedelstillverkning. Dessa underlag sammanfattar hur AI och maskininlärning kan tillämpas i olika stadier av läkemedelsutveckling och i kliniska studier. Som ett steg mot framtida regelverk och riktlinjer har FDA aktivt efterfrågat feedback från intressenter. Målet med denna åtgärd är att identifiera vilka mekanismer som krävs för att hantera den data som används för att generera AI-modeller inom läkemedelsindustrin och att etablera principer för bästa praxis.

En betydelsefull iakttagelse är det parallella arbetet som pågår i både EU och USA för att hantera utmaningarna och möjligheterna med AI inom Life Science-sektorn. EU har kommit lite längre med AI act men trots att USA:s FDA ännu inte har en fastställd ram för AI-användning, indikerar deras diskussionsunderlag och involvering av intressenter en önskan att främja ansvarsfull och effektiv användning av denna teknik inom läkemedelsindustrin.

 

ISO 42001 – Standarden för AI Management Systems

 

ISO 42001 introducerar en ny standard för ledningssystem för artificiell intelligens (AI), känd som AI Management Systems (AIMS). Denna standard fastställer en ram för den dokumentation som krävs inom organisationer som använder AI och är av betydelse för alla organisationer som utvecklar, levererar eller använder AI-system. Genom att tillhandahålla riktlinjer för att etablera, implementera, underhålla och förbättra AI-ledningssystem inom organisationer, syftar ISO 42001 till att främja en mer strukturerad och effektiv användning av AI.

En viktig poäng som framhävs i ISO 42001 är betydelsen av att ha ett tydligt syfte med användningen av AI inom en organisation och att förstå organisationens behov för att rättfärdiga användningen av AI-systemen. Standarden kräver att organisationer fastställer AI-mål för att definiera syftet med användningen av AI och antar en AI-policy för att skapa ett ramverk för användningen av dessa system.

Riskhantering är en central aspekt som betonas i ISO 42001, med fokus på att identifiera och hantera både interna och externa risker samt deras potentiella påverkan på samhället. Detta reflekterar den ökande medvetenheten om behovet av att integrera ansvarsfulla och samhällsmedvetna aspekter i AI-strategin för organisationer.

En annan intressant observation är att ISO 42001, trots sina likheter med ISO 9001 i struktur och uppbyggnad, har ett större fokus på samhället och dess påverkan. Detta indikerar en skiftande prioritering mot ett mer samhällsinriktat synsätt när det gäller ledningssystem för AI, vilket speglar den ökande betydelsen av att adressera etiska och samhälleliga frågor i användningen av denna teknologi.

Dokumentationskraven och avvikelsehanteringen för ett AI-ledningssystem liknar de för ett kvalitetsledningssystem, vilket understryker behovet av att integrera dessa system för att säkerställa en enhetlig och effektiv hantering av organisationens processer. Det är av ledningens ansvar att säkerställa att ett AIMS är på plats och att rätt kompetens finns tillgänglig för att hantera AI-systemen på ett ansvarsfullt sätt.

 

En avslutande reflektion

 

I en tid av exponentiell tillväxt för AI och ökad efterfrågan på integrering av AI-system och generativ AI, uppstår frågor kring integritet, bias och säkerhet. Organisationer behöver nu, mer än någonsin, ett tydligt ramverk gällande AI-hanteringen, dokumentation och riskhantering för att vägleda dem genom implementeringen av AI. ISO 42001 representerar en banbrytande standard som möjliggör ansvarsfull och hållbar användning av AI inom Life Science och andra branscher.

 

Visste du att…?

 

·  AI Act förväntas träda i kraft i maj/juni och kommer att ha en stegvis implementering.

·  FDA har efterfrågat feedback från intressenter för att informera framtida regelverk och riktlinjer för användning av AI inom läkemedelsutveckling.

·   ISO 42001 liknar ISO 9001 i struktur och uppbyggnad, men med ett större fokus på samhällspåverkan och riskhantering.

·   Framtidens regleringar kring AI förväntas vara en kombination av nationella och internationella standarder och förordningar, med målet att främja innovation samtidigt som man säkerställer samhällets och individens välbefinnande.

 

Tips!

 

Här kan du läsa mer om hur vi hjälpte ett företag, som är specialiserat på utveckling av produkter som presenterar medicinsk information baserat på vävnadsbilder genom AI och machine learning. Du kan också anmäla dig till vårt webinar som utforskar AI, Machine learning och Deep learning för medicintekniska produkter.


Jag vill kontakta en expert!

I denna artikel

Relaterat innehåll

AI
#19 AIs roll i framtidens drift & underhåll. Intervju med Ramin Karim (Luleå Tekniska Universitet)
Läs mer
Quality & Compliance
Leverantörsutvärdering inom Life Science
Läs mer
Medtech & IVD
Maximera din verksamhets potential
Läs mer
AI
#19 AIs roll i framtidens drift & underhåll. Intervju med Ramin Karim (Luleå Tekniska Universitet)
Läs mer
Quality & Compliance
Leverantörsutvärdering inom Life Science
Läs mer
Medtech & IVD
Maximera din verksamhets potential
Läs mer
Håll dig uppdaterad

PRENUMERERA PÅ SENASTE NYTT