lördag 15 juni 2013

Data och förståelse

Vetenskapen rusar fram med en otrolig hastighet, inte minst naturvetenskaperna. Att arbeta med  DNA och gener är vardagsmat för forskare i dag, vilket också ibland gäller att analysera längre förlopp över tid. Man rekonsturerar och analyserar historiska sjukdomsalstrande bakterier lika väl som utdöda människoarter. Det är nästan skrämmande: det är som om ingenting längre skulle undgå forskarnas öga. Snart har vi Jurassic Park här, med utprintade skräcködlor med autentiskt genom.

Skämt å sido. I det senaste numret av Tieteessä tapahtuu ingår en artikel av Marja-Leena Linne och Ulla Ruotsalainen om neuroinformatik (som förresten inte verkar ha någon artikel alls i svenska Wikipedia). Det handlar om att hantera de enorma datamassor man behöver för att ha den minsta chans att förstå de extremt komplexa och på många nivåer pågående processerna i hjärnan. Jag tyckte det var intressant hur författarna hanterar de finska orden data, tieto (information/kunskap) och ymmärrys (förståelse). På finska har vi nämligen det återkommande problemet att tieto egentligen täcker både information och kunskap. Detta dilemma kan i själva verket hjälpa oss att förstå de olika begreppen bättre, tycker jag. Författarna skriver till exempel: "Modeller(na) integrerar data och information (tieto) till en enhetlig helhet. ... De hjälper oss att förstå ...(sedan blev det för svårt för lekmannen att översätta korrekt)". Modelleringens funktion som förädlare av information är intressant, och pekar mot visualiseringens styrka och faktiska betydelse för vetenskapen och tänkande. Något som presenterars till exempel i videon nedan från MIT.

Nu är ju saken den att tar man hjärnans komplexitet, några tusen år och ett tillräckligt antal miljarder människor, börjar vi närma oss den komplexitet som historiker, statsvetare och humanister arbetar med. Det är förstås inte jämförbart, eftersom frågorna är annorlunda, men vad jag vill säga är att till exempel historia på sätt och vis är minst lika komplext. Men att hantera data är vi sämre på, det är allt för nytt och den kulturella datan föds spontant och de som samlar den mest heltäckande är Google och andra kommersiella aktörer. Ja, och diverse stormakter då förstås.
Information behandlar vi delvis lite bättre, men vad som hanteras är ytterst små fragment som just nu bedöms viktiga (forskning, litteratur, arkiv där man huvudsakligen sparar samma saker som man gjorde under papperseran).

Humaniora är väldigt kunskapsfokuserat, med andra ord. Det kan kanske kallas bildning också. Problemet är att vi behöver kunna hantera och redovisa våra källor och vår forskning på ett bättre sätt i framtiden. Vi kan inte sväva frikopplade från information och data, vi måste behålla kopplingen till våra källor också i framtiden, i den digitala världen. Vi använder datorer i vårt arbete. Också det måste vi reflektera över och dokumentera. Men som det framkommer i artikeln är det inte lätt ens för dessa systematiska och precisa hjärnforskare att skapa enhetliga terminologier och informationsmodeller, fast de har superproffsiga informatiker till hjälp och globala nätverk.  Bra vore ändå, om man också inom humaniora kunde sträva efter att skapa kompetenscentrum på området. Dessutom: humaniora och kvantitativa metoder är en stor frestelse, men det är allt annat än en lätt kombination. Eftersom humanioran, sprungen ur alla människors hjärnor, med alla dessa språk, traditioner och kulturer, måste vara oändligt mer komplex är neuroinformatiken. Sätt nu det i en databas sen. Men kan vi ändå utveckla vårt tänkande också inom humaniora med hjälp av datorer?





Media for Thinking the Unthinkable from Bret Victor on Vimeo.


Inga kommentarer:

Skicka en kommentar