AI, artificiell intelligens, är här för att stanna. AI-system kan tränas upp i allt från att upptäcka rökutveckling till att slå larm om skogsbränder och övertändning vid brandsläckning. Frågan är bara: vad händer när dessa ”smarta” system blir smartare än vi själva?
Text: Kristin Pineda Svenske Bild: Kristin Pineda Svenske via AI ARTA
Klockan 05.19 på morgonen den 11 september 2023 startade en skogsbrand på Wolf Mountain, Kalifornien. Trots att branden utvecklades i närheten av ett bostadsområde dröjde det ända till 06.01 innan det första larmsamtalet nådde räddningstjänsten, men vid det laget var brandkåren redan på plats. Den snabba utryckningen, som gjorde att man lyckades begränsa branden till 250 kvadratmeter, berodde delvis på den lokala brandkårens effektivitet. En annan avgörande faktor var AI – artificiell intelligens.
Sedan 1968, då datasystemet HAL 9 000 tog över rymdskeppet Discovery i science fiction-romanen och filmen [kursivera:] 2001 – en rymdodyssé, har människan lekt med tanken på vad som skulle ske om våra datorer i framtiden blir smartare än vi själva.
Idag är AI inte längre en del av en spekulativ framtid. Dessa dataalgoritmer övervakar redan våra hus, kontrollerar vår hälsa, hanterar emailens spam-filter och korrigerar våra textmeddelanden. De kan tipsa om ny musik eller tv-serier i Spotify eller Netflix baserat på vår personliga smak, identifiera sjungande fåglar i trädgården, varna för köbildning i trafiken och, som på Wolf Mountain i Kalifornien, blixtsnabbt slå larm om skogsbränder.
Grunden för artificiell intelligens är dess förmåga att ta till sig enorma mängder information. Ju mer data ett AI-system analyserar, desto ”intelligentare” blir det. Detta kan appliceras på allt från röntgenplåtar (där AI exempelvis kan upptäcka karies eller tumörer betydligt effektivare än en människa) till klimatdata.
Genom att analysera år, decennier eller hela sekel av information kring nederbörd, soltimmar, insektsplågor och skogsbränder, lär sig AI att upptäcka mönster, inte olikt årsringarnas varierande tjocklek i ett träd. På samma sätt kan AI sedan förutspå kommande upprepningar av tidigare mönster.

Kaliforniens brandövervakningssystem Cal Fire AI & AlertCalifornia omfattar idag omkring 1 050 kameror kopplade till en AI-algoritm som har fått analysera stora mängder bilder, film och data från rökutveckling. Så snart en kamera upptäcker en anomali i det övervakade landskapet, slår systemet larm och anger exakt position för upptäckten samt en procenthalt på hur tillförlitligt larmet är.
Sedan är det upp till en mänsklig kontrollant att avgöra om det handlar om en rökpelare eller kanske en molnbank eller en strövande hjort. Kontrollantens återkoppling hjälper AI-systemet att ytterligare förbättra sin kapacitet för att se skillnad på rök, moln och hjortar. Under sommarmånaderna 2023 upptäckte Cal Fire AI & AlertCalifornias system 40 procent av alla skogsbränder innan några larmsamtal hade inkommit. Satsningen utsågs till 2023 års bästa uppfinning av tidningen TIME.
AI kan inte bara lära sig att upptäcka moln vid horisonten (i dubbel bemärkelse). AI-baserad brandteknologi kan också lära sig att med hjälp av ett enda fotografi fastslå en eldsvådas bränsle, värmeutveckling och förväntade brandutveckling. I ett spansk-portugisiskt projekt har man lärt artificiella ”näsor” att lukta sig till eld långt innan den blir förnimbar för människor. Med hjälp av en eldtunnel, som används för att studera brandutvecklingen för olika typer av bränsle och jordmån, har AI-näsorna fått träna på både hur en brand luktar och hur den inte luktar – innan en sensor kan registrera en avvikelse från det normala (t.ex. röklukt), måste den förstås lära sig vad normen är (frisk, härlig skogsdoft).

Ändå vore AI kanske inte så märkvärdigt ”smart” om det uteslutande handlade om att upptäcka anomalier – gamla hederliga detektorer har ju varnat oss om rökbildning i över 50 år. Vad som utmärker den nya teknologin är förmågan att även blicka framåt, och bakåt, i tiden. Genom att analysera utvärderingar från byggnadsinspektioner i kombination med historiska data kan AI upptäcka problem och varna om eventuella brandfaror.
Via sammanställningen av data från alla elektriska apparater och installationer inom ett hushåll, kontor eller fabrik kan AI uppdaga känsliga zoner, ytor med risk för överhettning eller vanskliga elektriska installationer, och genom att blixtsnabbt gå igenom all tillgänglig information vid en brandutredning – brandmönster, värmestrålning, förbränningshastighet, förekomsten av acceleratorer med mera – kan AI fastslå var och hur branden uppstod och utvecklades. Även vittnesmål och andra yttre observationer kan läggas till i systemet för att skapa en detaljerad rekonstruktion av brandutvecklingen, och därmed bidra till allt från att hitta nya vittnen till att avgöra huruvida branden var anlagd.
AI kan också assistera under själva brandinsatsen. Det amerikanska organet NIST (National Institute of Standard and Technology) och det polytekniska universitetet i Hong Kong arbetar för närvarande med ett AI-verktyg som kan varna räddningspersonal om risken för övertändning inom 17 olika typer av byggnader i okända miljöer. Under ett test som omfattade svindlande 41 000 datasimulerade bränder visade sig systemet korrekt förutspå över 90 procent av alla övertändningar, med 30 till 60 sekunders varsel.
Det handlar inte bara om att kontrollera själva branden. I USA, där hjärtproblem ligger bakom 45 procent av arbetsrelaterade dödsfall bland brandmän, har NIST också tagit fram ett AI-system som har fått lyssna på tusentals timmar av mänskliga hjärtslag. Med hjälp av bärbara sensorer kan systemet känna av om en brandmans hjärtslag ökar kraftigt på grund av hetta eller stress och slå larm om att det är dags att ta en paus eller uppsöka läkarvård.
Ju mer material AI får analysera i relation till brandutveckling i olika scenarier, med hänsyn till skiftande faktorer såsom vind, luftfuktighet och bränsletyp, desto bättre råd kan denna artificiella assistent ge beträffande de mest effektiva stegen i rådande släckningsarbeten.
Det låter ju bra. Men AI-innovationerna skapar också problem. Först och främst: kan vi lita på AI? Hur upptäcker och hanterar vi eventuella felbedömningar och brist på precision? Samma faktor som gör den artificiella intelligensen så överlägsen är också dess akilleshäl – information. Information kan vara felaktig. En byggnad kan vara listad som övergiven men vara ockuperad av människor. En undermålig inspektion vars bristfälliga data har registrerats i systemet kan leda till oförutsedda faror. Felaktig information kan ha fatala konsekvenser i brandsäkerhetssammanhang.

Man bör också ha i åtanke att det grundläggande konceptet inom AI, att urskilja mönster inom enorma mängder data, genererar en form av genomsnittskunskap snarare än reaktiv, elastisk intelligens. Det gör AI enastående på att identifiera och förutspå typiska händelser och normativa tendenser, men mindre bra på extremfall, oväntade händelser och mångfald (se faktaruta).
Den mänskliga hjärnan, däremot, har en fantastisk förmåga att ta ögonblicklig lärdom av enstaka händelser och beakta skiftande omständigheter och etiska aspekter. Det gör också att en annan av farhågorna med AI, en framtid där räddningspersonal mister sina arbeten och ersätts av dataalgoritmer, än så länge är långt borta, men heller inte gripen ur luften. För räddningstjänsten, precis som många andra branscher, gäller det att hitta en balans där AI assisterar och underlättar, inte ersätter människorna – och det mänskliga – i samhället.
Vilket leder till teknologins kanske allra största orosmoln: den etiska aspekten. Varje ny kamera, sensor eller insamling av data hotar att inkräkta på våra privatliv. AI har visat sig kunna avslöja allt från sjukdomar till en människas sexuella läggning genom en enkel fotoanalys. Så kallad generativ AI kan skapa nytt, högst övertygande bildmaterial baserat såväl på enstaka foton som på världens uppsjö av fotomaterial, vilket avsevärt höjer riskerna för identitetsstöld. Även ”fake news” i form av bild- och videomaterial på brinnande byggnader kan på många vis leda till ökat eller försvårat arbete för räddningstjänsten.

Professor Geoffrey Hinton, även kallad gudfadern av AI, som tillsammans med John Hopfield tog emot 2024 års Nobelpris i fysik, har länge lyft fram de eskalerande riskerna med artificiell intelligens. Hinton vill få oss att på allvar begrunda faran med ett samhälle där maskiner lär sig saker betydligt effektivare än människor. Om AI-systemen lär sig att skriva sin egen kod, kan vi fullständigt komma att tappa greppet om dem, menar professorn.
Med tanke på hur uppkopplade de flesta av oss är vad gäller såväl arbete som fritid och familjeliv, kan det vara svårt, för att inte säga omöjligt, att värja sig. Eller, som Hinton sammanfattade situationen i sitt ominösa tal under Nobelbanketten 2024:
– Det föreligger ett långsiktigt existentiellt hot som uppstår när vi skapar digitala varelser som är intelligentare än vi själva. Vi har ingen aning om vi kan behålla kontrollen över dem. […] Vi är i akut behov av forskning kring hur man hindrar dessa nya varelser från att vilja ta över kontrollen. De är inte längre science fiction.
VAD ÄR AI?
Med AI, eller artificiell intelligens, avses system inom datorer och maskiner som kan dra egna slutsatser, lära sig och agera på sätt som vanligen förknippas med mänsklig intelligens. AI byggs upp genom enorma mängder data som (vanligen) är alltför omfattade för en människa att sätta sig in i. Ett datasystem kan däremot utföra en analys, känna igen mönster och ”lära sig” att förutspå liknande mönster – ofta på bara några sekunder eller minuter.
Så kallad generativ AI kan på samma vis skapa egna bilder och texter: datasystemet analyserar enorma kvantiteter text- eller bildmaterial, och skapar sedan en egen, ny text eller bild baserad på bakgrundsmaterialet. Dessa bilder har i flera fall använts för att skapa ”fake news”, bland annat påhittade eldsvådor.
AI – IG i mångfald
Vi testade att skapa 100 bilder uteslutande med ledordet ”fire fighter” i en av många generativa AI-appar med olika typer av filter, från fotorealism till fantasy. Av de genererade bilderna föreställde 99 en vit man i 30- till 45-årsåldern. En bild, med filtret ”neon punk”, föreställde en kvinna. Avvikelser från den vita normen förekom överhuvudtaget inte. Samma test med ordet ”police” gjorde aningen bättre ifrån sig sett till könsfördelning, men skapade fortsatt uteslutande vita människor.
3 INNOVATIVA AI-PROJEKT JORDEN RUNT:
Smarta brandhjälmar
VAR: Universitetet i Edinburgh och National Robotarium, Skottland.
VAD: En ny ”smart” hjälm sägs kunna upptäcka människor inuti rökfyllda byggnader inom loppet av sekunder. AI sammanställer data från hjälmens värmekamera, radar och ytterligare sensorer. I framtiden hoppas man att hjälmen skall kunna generera 3D-kartor på en inbyggd skärm för att snabbt guida brandmän genom brinnande byggnader.

Flygande drakar
VAR: Universiteten i Tohoku och Osaka, Japan.
VAD: Roboten Dragon Firefighter är en fyra meter lång flygande brandslang med åtta jetstrålar som kan spruta ut 6,6 liter vatten per sekund. Slangen kan ändra form och riktning via en fjärrkontroll. Drakens ”nos” är utrustad med en värmekamera.

Rökkänsliga satelliter
VAR: Rymden/University of South Australia, Adelaide, Australien.
VAD: Australiska kubsatelliter utrustade med AI-system har visat sig kunna upptäcka rökutveckling från rymden 500 gånger snabbare än traditionell, markbaserad videoövervakning. Kubsatelliter omfattar bara någon kubikdecimeter i storlek och väger omkring ett kilogram. Flera ”kub-sat” kan kopplas samman till en större enhet.