Skip to content

Testet selvkjørende lastebiler på E6

AUTOMATISERING: Statens vegvesen og Volvo Trucks har testet hvordan automatiserte lastebiler mottar og reagerer på digitale varsler om veiarbeid uten at sjåførene er direkte involvert.

Akademisk frihet og ansvar: vitenskapelige standarder

Forskningsetisk ansvar er tematisert i en rekke Aftenposten-kronikker. Jeg oppsummerer Diesen-debatten kort, før jeg drøfter loven, lovforarbeidene og norske og europeiske forskningsetiske retningslinjer.

Politiske holdninger

Glenn Diesen har skapt oppmerksomhet om akademisk frihet, som han har – på linje med andre vitenskapelig ansatte. Det betyr ikke at han «er i sin fulle rett til å mene og skrive det han vil», slik Gisle Selnes skriver i Aftenposten 30.05. Tidligere ytringer fra Selnes og andre om at Diesen utsettes for «forfølgelse» er både usaklig og tydeliggjør ikke de særlige kravene som vitenskapelig ansatte må etterleve. Jeg var av de 50 som i mars skrev at vi var uenige i at «forfølgelse» er rett betegnelse på kritikken mot Diesen.  

Verken Aftenposten-kronikker (Svein G. Holtsmark 30.05.; Aage Borchgrevink 27.05.; Kjetil Rolness 24.05.; Anki Gerhardsen 21.05.) eller brev sendt fra Den norske Helsingforskomité i 2024 til Universitetet i Sørøst-Norge (USN) ber om oppsigelse av Diesen. Norske universitetsrektorer støtter USNs håndtering. Jeg mener også at de 37 USN-kollegaene som markerer avstand til Diesens «politiske holdninger» ikke treffer. 

Gerhardsen etterspør avklaring av seks påstander framført i NRK Debatten 20.05. Faktisk.no har faktasjekket, og gir Diesen rett om svak støtte til NATO-medlemsskap i den ukrainske befolkningen fram til 2014.

I vurderingen av Diesens ytringer finnes en rekke kilder som kan brukes. Jeg løfter fram rapportene fra FNs Independent International Commission of Inquiry on Ukraine, ledet av Erik Møse.

Resten av innlegget skal ikke handle om Glenn Diesen, men om tematikk som har kommet opp under de ulike debattene.

Hva er de særlig kravene til vitenskapelig ansatte?

Jeg minner innledningsvis om at Høyesteretts Ankeutvalg uttalte i HR-2011-1314-U, avsnitt 8 at «ytringsfriheten, slik denne blant annet kommer til uttrykk i Grunnloven § 100 første ledd og EMK artikkel 10 nr. 1, gir svært vide rammer for hva en vitenskapelig ansatt kan si om faglige og administrative spørsmål, selv om dette innebærer å tale ledelsen eller andre midt i mot. Den frie akademiske meningsutveksling er en grunnleggende verdi, og en forutsetning for at universiteter og høyskoler skal kunne fylle sin oppgave i et demokratisk samfunn.» Deretter forklarte Høyesteretts Ankeutvalg hvorfor anken fra den oppsagte professoren likevel ikke kunne føre fram.

Forskningsetikklovens § 4 omhandler forskeres aktsomhetsplikt; konkret «å sikre at all forskning skjer i henhold til anerkjente forskningsetiske normer. Dette gjelder også under forberedelser til forskning, rapportering av forskning og andre forskningsrelaterte aktiviteter.»

Når en person deltar i direktesendte debatter med den tyngden som en professortittel gir og søker å formidle hva ens forskning omhandler, faller dette inn under § 4, jf. formuleringen «rapportering av forskning og andre forskningsrelaterte aktiviteter.»

Tilsvarende krav må gjelde for kronikker – som er spissere og knappere enn artikler, og som sjelden omtaler metodevalg og forskningsetiske forhold.

Dersom en forsker formidler ved klart selektiv kildebruk og det som framstår som ensidige tolkninger, i ulike kanaler og på egne youtube-kanaler, mener jeg at dette kan stride mot forskeres aktsomhetsplikt, konkret vitenskapelige normer for etterrettelighet og redelighet.

En annen lovbestemmelse har ordlyden «anerkjente forskningsetiske normer», nemlig § 8 annet ledd, om vitenskapelig uredelighet. Bestemmelsen har et objektivt krav, nemlig «alvorlige brudd på anerkjente forskningsetiske normer…» og et subjektivt krav, nemlig «begått forsettlig eller grovt uaktsomt i planlegging, gjennomføring eller rapportering av forskning.» Vi ser at begrepet «alvorlige brudd» brukes; gir lovforarbeidene hjelp til avklaring?

Hva sier lovforarbeidene?

Det viktigste lovforarbeidet til forskningsetikkloven er Prop 158 L (2015-2016), der s. 35 omtaler «Ensidig eller forvridd tolkning av egne resultater og konklusjoner» som ett eksempel på «alvorlige brudd på anerkjente forskningsetiske normer.»

Er begrepene «ensidig» og «forvridd» fra lovproposisjonen presise nok? Antakelig er det enklere å bli enige om hva som ligger i «ensidig». Dersom all tolkning skjer med utgangspunkt i et gitt verdensbilde eller ideologisk forståelse, og man ikke er åpen for å forstå et utsagn eller en kilde på andre måter er man ensidig. Hva som er «forvridd» kan handle om å tolke visse kilder med en gitt bakgrunn, på andre måter enn kilder med en annen bakgrunn.

I merknaden til foreslått § 4 heter det på s. 90 i Prop 158 L (2015-2016): «En forsker vil vanligvis ikke kunne påberope seg villedning om innholdet i anerkjente forskningsetiske normer.»

Slik regjeringen forstår det, skal det altså stilles betydelige krav til forskeres innsikt i anerkjente forskningsetiske normer; §§ 5 og 6 i loven stiller krav til institusjonen, om opplæring og om behandling av (angivelige) uredelighetssaker.

NESH-retningslinjene og European Code

Lovforarbeidene stiller altså store krav til forskeren om kjennskap til «anerkjente forskningsetiske normer». Svært få vil makte mer enn å vise til hvor disse finnes. I tillegg til lovforarbeidene vil jeg løfte fram to:

For det første, Nasjonale forskningsetiske retningslinjer for samfunnsvitenskap og humaniora (NESH-retningslinjene) fra 2023. Disse sier i punkt 50 (utdrag): «En forsker som deltar i samfunnsdebatten som forsker, er forpliktet til å formidle vitenskapelige resultater, arbeidsmåter og holdninger. Personlige meninger eller politiserte standpunkter bør ikke fremstilles som forskning.»

Selv om den aktuelle konteksten er forskning – og ikke «akademikeropprop», er jeg i tvil om hva som skal til for å utgjøre «politiserte standpunkter». Jeg fikk anledning til å reflektere over dette som del av et panel om akademisk solidaritet, i UiA-teltet under Arendalsuka 2024, i regi av Scholars at Risk og SAIH. Dersom en forsker uttaler seg – som forsker – helt i overenstemmelse med pressemeldinger fra statsministerens kontor i et land som har gjennomført en invasjon og er i aktiv krig er sannsynligheten stor for at vedkommende formidler politiserte standpunkter.

For det andre sier All European Academies’ (ALLEA) The European Code of Conduct for Research Integrity i sin oppdaterte versjon fra 2023 under overskriften Publication, Dissemination, and Authorship: «Authors are accurate and honest in their communication to colleagues, policy-makers, and society at large.»

Å så tvil – som forsker – om hvem som er overgriper og hvem som er offer – i en situasjon hvor stor og bred dokumentasjon faktisk finnes – er ikke i samsvar med kravene om å være nøyaktig og ærlig. Begrepet «honest» kan ut fra sammenhengen ordet står i også oversettes med «sannferdig», altså å søke sannhet og innsikt.

I tråd med § 2.2 i universitets- og høyskoleloven har vitenskapelig ansatte både akademisk frihet og ansvar.

  • Les også:

Finnes det etisk forsvarlig bruk av generativ KI?

Kommentar

Finnes det etisk forsvarlig bruk av generativ KI? 

Den offentlige samtalen ser ut til å ha beveget seg fra om vi skal bruke generativ KI, til spørsmålet om hvordan, skriver Hilde Halvorsrød.  

«[A] grotesque mockery of what it is to be human».  

Slik responderte musiker Nick Cave på en låt laget av ChatGPT i «hans stil».   

ChatGPT er selskapet OpenAIs chatbot for generativ kunstig intelligens (KI). 

Dette var rett etter lanseringen av verktøyet høsten 2022. Jeg vet ikke hva Cave mener nå, men selv synes jeg fremdeles det er en svært treffende betegnelse på hele fenomenet generativ KI.  

For meg, som har skriving som mitt kunstneriske og yrkesmessige virke, blir det fort personlig: Det å la en datamaskin generere, disponere eller «forbedre» en tekst for meg føles like fjernt, og like etisk problematisk, som plagiat, eller som å bare be noen andre skrive for meg og så å ta æren for det.  

Jeg har derfor aldri prøvd verken ChatGPT eller noe som ligner, og jeg kommer heller ikke til å gjøre det, så lenge det er mulig å unngå. Det første jeg gjorde da Microsoft ubedt ga meg KI-assistenten Copilot som standardinnstilling hver gang jeg åpner et Word-dokument, var å finne ut hvordan man skrur den av. Det går heldigvis an. 

Fremdeles har det ikke kommet noen formelle krav eller forventninger i min retning om å ta generativ KI i bruk, snarere tvert imot. Jeg merker likevel hvordan det kryper stadig nærmere. Forkynnelsen om hvor tidsbesparende generativ KI er, kommer fra venner, kolleger, og medieoppslag om 50 prosent økning i effektiviteten. 

Senest i går støtte jeg på et menneske som i en formell sammenheng ville løse en uenighet ved å «spørre ChatGPT».

 Store konsekvenser for kulturlivet

Men dette handler selvsagt ikke bare om meg: Ettersom KI-botene kan generere alt fra bilder til musikkverk, har den voldsomme utrullingen av ChatGPT og alle dens avarter og konkurrenter vidtrekkende konsekvenser for hele kunst- og kulturfeltet. Det er allerede svært merkbart i mange bransjer; grafiske designere, oversettere og komponister mister jobber i fleng, og KI-generert musikk oversvømmer ulike strømmetjenester og plattformer. 

Den offentlige samtalen later i noen grad til å ha kapitulert: Stadig oftere ser det ut som diskusjonen handler om hvordan man skal bruke generativ KI, snarere enn om. Nå sist i nyhetsbrevet fra Bokklubben, der hovedoppslaget var «Kom i gang med KI!», etterfulgt av reklame for en rekke bøker om temaet. 

De ivrigste ververne forsøker å trekke opp en skillelinje mellom «riktig» og «gal» KI-bruk. For eksempel ved å bare la den gjøre store, organisatoriske oppgaver og ikke slippe den til som skapende kraft.  

Ulike aktører lager sine egne, påstått «stuerene» versjoner av generativ KI. Universitetssektoren har tatt i bruk Sikt KI-chat, VG har lansert tjenesten HeiVG, dels til sterk kritikk, skal sies, i tillegg til den allerede nevnte Copilot fra Microsoft.  

Tiden som forsvant

Men lar det seg i det hele tatt gjøre å skille mellom mer eller mindre «riktig», eller etisk, bruk av KI? 

Én ting er at argumentet om å spare tid får meg til å lure på om alle bare har sovet seg gjennom de siste tiårene med rivende teknologisk utvikling. Tidsbesparelse har vært et sentralt argument for å innføre ny teknologi siden begynnelsen. Men hvor er denne tiden? Hvem er det som har fått den, og hva bruker de den til?  

Det er et svært kortsiktig argument: Tidsbesparelser følges alltid hakk i hæl av krav om økt effektivisering. Det blir aldri noe mer tid i regnestykket. Det eneste som øker, er forventningene til hvor mye det er mulig å få gjort på en arbeidsdag.  

Massivt behov for tyveri og energi 

Samtidig er det to veldig store problemer jeg ikke ser noen vei utenom, sånn som generativ KI fungerer i dag. Det ene er at enhver kommando til ChatGPT eller lignende tjenester bruker helt enorme mengder energi. Det kan være så mye som fem ganger så mer et vanlig Google-søk.  

Det andre er at de mest effektive modellene er basert på åndsverktyveri i stor skala. Under Tidsskriftdagen 27. mai la Erik Bolstad, sjefredaktør i Store norske leksikon (SNL), fram noen ganske ville tall om Open AIs trening av ChatGPT. For det første har de lastet ned leksikonets omtrent 200 000 artikler mange millioner ganger. Det har de ikke lov til. Dette har skjedd til tross for at SNL gjentatte ganger har tatt kontakt og bedt dem eksplisitt om å la være.  

Ifølge Bolstad skyldtes dette at OpenAI hadde et svare strev med å finne nok materiale å trene språkmodellen sin på. Han sier de lastet ned hele internett to ganger, matet den med 300 000 bøker og alt innhold i alle videoer på YouTube. I tillegg har de brutt seg inn i en rekke ulike databaser uten tillatelse.  

Internasjonalt har mange store aktører på kulturfeltet gått til søksmål mot KI-selskaper for å ha benyttet rettighetsbeskyttet materiale, for eksempel i musikkbransjen.

Enn så lenge – la være

Denne typen KI-verktøy fungerer altså ikke etter hensikten uten tilgang til så godt som all verdens åndsverk.  

Tek-gigantene har åpenbart ingen planer om å gjøre rett og skjell for seg og godtgjøre rettighetshavere av egen fri vilje. Etter hvert som nasjonale og internasjonale lovverk snegler seg etter utviklingen, kan de kanskje i noen grad tvinges til det. 

Enn så lenge virker det innlysende for meg at all bruk av KI-verktøy forutsetter, og derfor indirekte legitimerer, store mengder åndsverktyveri. De alternative verktøyene nevnt over er også basert på OpenAIs språkmodeller. 

Derfor mener jeg den viktigste diskusjonen for veldig mange og på veldig mange områder, fremdeles må være hvorvidt man skal ta generativ KI i bruk, eller la det være. Og for meg er det ingen tvil – så lenge det ikke finnes kompensasjon for bruk av åndsverk eller en plausibel løsning på den vanvittige energibruken, kommer jeg til å la være.  

Innlegget Finnes det etisk forsvarlig bruk av generativ KI? dukket først opp på Kontekst.

Tilbake til toppen