Big Data kan gjøre forskeren overflødig
For noen år siden ville det kanskje høres vanvittig ut å spørre seg om menneskets rolle i vitenskapen var utspilt. Nå er det imidlertid flere og flere som gjør det.
Påstander om at maskiner kan bedrive og forbedre forskning
I en nylig publisert artikkel viser jeg til flere forskere som peker på at kombinasjonen av maskinlæring og enorme datamengder lar oss avdekke kunnskap uten menneskelig innblanding – at tallene "snakker for seg selv" når vi får nok tall. Vi har altså, ifølge enkelte forskere, kommet dit at verktøyene vi har laget nå kan bedrive vitenskap for oss. Videre hevdes det at Big Data ikke baserer seg på noen teori, f.eks. om menneskets natur, men at man bare samler inn massive mengder av informasjon og lar denne snakke for seg selv.
Men det stopper ikke der: enkelte forskere mener at vi med Big Data både kan erstatte mennesket med maskiner og i tillegg forbedre forskningen. Ved å bruke datamaskiner fjerner vi nemlig det største hinderet for objektiv forskning: den menneskelige forskeren.
Mennesker er som vi vet svært så feilbarlige, og den feil finnes knapt som mennesket ikke kan gjøre. Dette fører til at forskningen vi produserer blir fordreid og preget av usikkerhet. Mennesker er ikke nøytrale – vi er ikke objektive. Vi påvirkes, både bevisst og ubevisst, av vår bakgrunn, vår ideologi og våre verdier, og vi har visse kognitive svakheter. Maskiner har ikke de samme svakhetene.
Tre grunner til at det fremdeles er behov for menneskelige forskere
Om dette stemmer blir den menneskelige forskeren i fremtiden lite mer enn en dataforvalter – kurator – eller programmerer. Hun blir en som styrer maskinen, som trenger stadig mindre styring. Men gjennom artikkelen min viser jeg til tre grunner til at menneskets rolle i vitenskapen fremdeles er særdeles viktig.
For det første er det forbløffende å se hvordan mange overser det faktum at det er mennesker som lager datasystemene, velger hva de skal anvendes på og tolker de endelige resultatene vi får. Selv om ikke datamaskinen selv har verdier og preges av ideologi er det lett å se at dette kan bygges inn i maskinlæringssystemene. Ikke nødvendigvis bevisst. Samtidig vil menneskelige vurderinger prege hvilke data som samles inn og hvordan de kodes, og alt dette vil kunne ha vel så store implikasjoner for objektivitet som tradisjonell forskning. Ulempen er at det her er skjult, og at vi i dag ikke har noen sikker metode for å teste funnene for innebygget bias.
Et eksempel på dette er hvordan automatiske systemer for tildeling av lån kan vise seg å være rasistiske. Systemene er basert på maskinlæring og Big Data, og selv om man selvsagt ikke har bedt systemene om å vektlegge etnisitet eller lignende i sine vurderinger, så ligger denne skjevheten i datamaterialet systemene har lært av. Man hevder ofte at man ved å bruke slike systemer fjerner diskriminering som følger av menneskelig skjønn, men faktum kan altså like gjerne være at vi gir diskriminering legitimitet ved å kalle prosessene objektive og nøytrale.
For det andre er det et faktum at Big Data best anvendes til å forstå adferd, og kanskje uttrykte oppfatninger. Akkurat som at behaviorismen er meget godt egnet til noe, er den mindre godt egnet til andre ting. Big Data er fremdeles relativt tannløs når det kommer til å forstå kognisjon og prosesser som fører til adferd.
Sist, men ikke minst: mange kjente personer i vitenskapsfilosofiens historie har sammenlignet forskning med kunst. Karl Popper, Michael Polyani og Max Weber kan stå som representanter for synet på forskning som noe mer enn rasjonell forståelse – vitenskapelige fremskritt krever intellektuell lidenskap og intuisjon, og uten dette som ledesnor vil vitenskapen ifølge Polyani munne ut i "en ørken av trivialiteter". Hvis forskning ligner kunst kan vi trygt anta at det krever kreativitet – et sentralt trekk ved mennesket, og noe som enn så lenge ikke har blitt erobret av kunstig intelligens.
Mennesket har altså en rolle å spille i vitenskapen – i alle fall enn så lenge. Big Data gir oss store fordeler på visse områder – spesielt innen fagfelt der kvantitative metoder og en naturvitenskapelig tilnærming er utbredt. Vi bør imidlertid også innse at mye viktig forskning er basert på kvalitative metoder som vanskelig kan erstattes med Big Data, og at mennesket også er en del av forskningen som er basert på Big data.
Artikkelen oppsummerer noen av temaene som diskuteres i artikkelen til førstelektor Henrik Skaug Sætra "Science as a vocation in the era of big data" som ligger åpent tilgjengelig på følgende lenke: https://link.springer.com/article/10.1007/s12124-018-9447-5
“Big Data blir ofte definert ut fra de “tre V’er”: volume, velocity, and variety (Laney, 2001). Volume viser til mengdene data, velocity viser til hastigheten av datainnsamling og analyse, og variety viser til variasjonen i datamaterialet. Til sammen fører disse aspektene ved Big Data til at det stilles krav til nye systemer for håndtering og analyse av materialet.”
Litteraturhenvisninger
Laney, D. (2001). 3D data management: Controlling data volume, velocity and variety. META Group Research Note, 6(70).