Tag Archives: masteroppgave

Hvordan italienske tomater reddet masteroppgaven min

Pomodoro-teknikken har sitt navn fra denne typen kjøkkenklokke som teller ned sekundene du har til rådighet

Hvis man ønsker å skrive en god masteroppgave, er man avhengig av god selvdisiplin. Man må bruke tiden man har til rådighet på en effektiv måte. En teknikk for å oppnå dette er Pomodoro-teknikken, som jeg selv har brukt.

Slik jeg har forstått og brukt Pomodoro-teknikken, så er det en konsentrasjonsteknikk basert på tidsdisponering. Kort sagt, går den ut på at man har en 30-minutters arbeidssyklus hvor man jobber i 25 minutter og tar pause i 5.

I de 25 minuttene skal man kun jobbe med én oppgave. Multitasking er fy-fy. Dersom du sitter fast, skal du ikke hoppe over på noe annet. Vær forøvrig nøye med når du tar pause. Det er fristende å fortsette når man først har kommet i en god flyt, men stopper man arbeidet mens man er i flyt, vil man være motivert for å ta opp igjen arbeidet etter 5 minutters pause. Dersom man jobber til man stopper opp, og så tar en pause, så er det faktisk tyngre.

Personlig, fulgte jeg ikke Pomodoro-teknikken slavisk, og ikke over særlig lang tid. Jeg brukte den for å lære meg å konsentrere meg umiddelbart, og den arbeidsrytmen jeg innarbeidet gjennom Pomodoro-teknikken var faktisk en god måte å oppnå umiddelbar konsentrasjon på. Nå og da, når jeg synes det blir vanskelig å konsentrere seg, tar jeg frem Pomodoro-teknikken igjen.

Dette er egentlig all info man trenger for å komme i gang, men er du nysgjerrig på mer, finner du mer om teknikken her.

Advertisements

The End

Masteroppgaven er nå levert, og det nærmer seg slutten av lærebloggen for denne omgang. Kommer til å legge ut noen erfaringer etterhvert som jeg får tid. I dag begynte jeg i min nye jobb som sikkerhetsrådgiver for Jernbaneverket. Det er store mengder informasjon å sette seg inn i, og det er åpenbart at de forventer prestasjon ganske tidlig. Gleder meg til neste uke.

Masteroppgave og jobbtilbud

Nå har jeg sendt masteroppgaven i trykken. Det ble noen ganske slitsomme dager helt på tampen, men konsentrasjonen og disiplinen var på topp da det gjaldt som mest. Er egentlig ganske fornøyd med innsatsen min sånn sett.

I april var jeg på HFC. Der møtte jeg bl.a. noen fra Veritas som hadde jobbet med kartlegging av sikkerhetskultur i Jernbaneverket, og siden masteroppgaven min handler om sikkerhetskultur blant togledere, så var de interessert i at jeg presenterte masteroppgaven min for dem. Jeg fikk invitasjonen på fredag og presenterte på mandag. Så tok de meg inn til førstegangsintervju, og et par dager senere annengangsintervju.

Jeg søkte på tre jobber og fikk tilbud fra alle. Veritas, Scandpower og Jernbaneverket. Har sagt ja til Jernbaneverket, og begynner i jobben på fredag.

Ferdig med koding

DA! var jeg ferdig med kodingen. 1410 utsagn er kodet i 3 modeller. I forrige uke fikk jeg kontakt med Åsa Ek, som har utviklet en av sikkerhetskulturmodellene jeg bruker i masteroppgaven (hun presiserte at det ikke var en modell). Hun sendte meg mye nyttig informasjon som gjorde at jeg måtte revidere kodingsveiledningen min litt, og dermed gå gjennom all koding jeg hadde gjort i den modellen.

Nå er det endelig klart for statistisk analyse. Gleder meg!

M-SWOT: Teoriutvikling eller måling?

Min post nr. 100 tenkte jeg å dedikere til en viktig avgjørelse man kan glemme å ta når man bruker M-SWOT-metoden.

Er du en konsulent eller masterstudent som skal bruke M-SWOT så er følgende veldig viktig å være oppmerksom på: Det finnes to hovedbruksområder for M-SWOT. Disse er teoriutvikling (TU) og klima-/meningsmåling (KMM). Dette er kjempeviktig for arbeidsmengden du får i etterkant.

Du kan nemlig variere arbeidsmengden gjennom måten du trekker ut utsagn på, og de valgmulighetene du har er avhengig av om du driver med TU eller KMM. Derfor er det smart å være bevisst på hva du vil med M-SWOT før du setter i gang.

Til deg som ikke gidder lese hele innlegget – her er hovedpoenget: Hvis du bare skal kjøre en KMM kan du definere utsagn som avsnitt istedenfor “minste meningsbærende enhet”, og slippe blodslitet med å kode tusenvis av utsagn.

KMM er enklest. Der har du en modell du vet du stoler på og som du har tenkt å bruke til å måle noe. TU er verre. Der er du skeptisk til modellen, og du må derfor også samle opp utsagn som ikke faller inn i modellen.

Hittil har M-SWOT-brukere definert et utsagn som noe sånt som “den minste meningsbærende enheten som sier noe om temaet som studeres”. Min forskning har demonstrert at det er svært lav reliabilitet på uttak av utsagn som følger slike subjektive definisjoner. Men grunnen til at det “må” være såpass små utsagn er regelen om at et utsagn bare kan kodes én gang.

Murphy & Ciszewska-Carr (2005) kom også fram til samme konklusjon, nemlig lav interjudge-reliabilitet på utsagnsuttak. De skiller mellom semantisk (meningsbærende) og syntaktisk (setninger, avsnitt) utsagnsuttak. Kort sagt, sier de at da det hadde liten effekt på kodingen at de byttet fra semantisk til syntaktisk utsangsuttak. Men det skyldes delvis at informantene deres var veldig strukturerte i tekstene de skrev (intervjuobjekter hopper mer mellom tema), og at de hadde nesten like mange syntaktiske som semantiske utsagn. Også de fulgte regelen om at et utsagn kun kan ha én kode.

“Har du lyst, har du lov”
Og her kommer den nye tanken i M-SWOT-sammenheng: Du har faktisk lov til å kode et (syntaktisk / avsnitt) utsagn i flere kategorier. Hvis en kategori dukker opp flere ganger i det samme utsagnet, vel, så skriv antallet ganger temaet dukker opp! Da slipper du å kode tusenvis av utsagn, og du slipper å bruke tid på å gruble over om nøyaktig hvor du skal avslutte et utsagn og starte det neste.

Sorry-borry, dette funker bare for KMM.
Da har du en modell du “vet” er sann. Hvis du derimot driver og tester ut et modell i en ny setting (TU) slik jeg gjør i min masteroppgave, så er det viktig å også trekke ut de utsagnene som ikke passer med modellen. Så en TU må nødvendigvis være mer krevende enn en KMM.

Konsekvenser for reliabiliteten
Murphy & Ciszewska-Carr har rapportert at det å velge ut avsnitt er en langt mer reliabel måte å trekke ut utsagn på. I deres tilfelle brukte de skrevet tekst. I intervjuer blir det litt verre; mennesker snakker jo ikke i avsnitt. Likevel transkriberer vi inn avsnitt eller setninger der informanten tar en pause, eller starter på et nytt tema, eller der vi føler for det. Resultatet er at den potensielle feilkilden (og den tilhørende reliabilitetssjekken) blir forskjøvet til transkriberingsstadiet! Derfor må man operasjonalisere avsnitt (eller setninger).

Samtidig er det et annet reliabilitetsproblem som dukker opp. Hvis du kan kode et utsagn i flere kategorier, så begynner reliabiliteten å dreie seg om hvor mange koder du og din interrater ser i hvert utsagn. Ja, så har du det gamle spørsmålet om hvilke koder dere har satt på utsagnene også.

Oppsummering
Så kort oppsummert, kan du redusere arbeidsmengden og øke utsagns-reliabiliteten ved å velge ut større utsagn basert på syntaktiske kriterier, men må betale litt for det ved å se på en annen type reliabilitet.

En kjapp intro til M-SWOT-analyse

Når man skriver masteroppgave på universitetet anbefales det at man bruker innsamlet data (i motsetning til en ren teoretisk oppgave). Disse dataene skal analyseres. Det fins utallige analysemetoder som passer til ulike typer data. Én av disse analysemetodene heter M-SWOT, og det er den metoden jeg bruker til min masteroppgave.

M-SWOT brukes til å analysere SWOT-intervjuer. Den er utviklet ved Psykologisk institutt ved UiO, av Cato Bjørkli, Roald Bjørklund og Thomas Hoff, samt minst et titalls masterstudenter, over flere år.

Når intervjuene er ferdig transkribert, skal man ifølge M-SWOT trekke ut utsagn (en prosess som er kjent som unitizing på engelsk). Disse utsagnene blir så plassert under hverandre i SPSS eller Excel. Bortover har man flere modeller som disse utsagnene skal krysses av i.

Den første “modellen” er SWOT, hvor bokstavene står for Strenghts, Weaknesses, Opportunities og Threats. Alle utsagn skal inn i én av disse kategoriene (noen ganger bruker man også en R-kategori, altså rest eller residual, for utsagn som bare ikke passer inn).

Så har man den teoretiske modellen som den aktuelle forskningen handler om (M’en i M-SWOT). Modellene man bruker har gjerne flere kategorier, og man krysser av i disse kategoriene hver gang et utsagn handler om den kategorien. Hvert utsagn kan kun kodes i én kategori.

Til slutt, legger man sammen antallet utsagn som har falt i hver kategori, og da kan man si noe om hva intervjuobjektene er opptatt av. Dette sammenlignes opp mot fordelingen av S, W, O og T, og da kan man også si noe om bl.a. hvor positive/negative disse holdningene er.

Dette var en overfladisk introduksjon til hva M-SWOT-analyse er. Det kommer mer under taggen m-swot i tiden fremover til oppgaveinnlevering i mai.

Metodologiske kvaler II

For snart tre uker siden strevde jeg med å finne en god definisjon på hva som er et utsagn, slik at jeg får en god intrarater (eller riktigere, intrajudge) reliabilitet på utsagnsuttak. Men jeg har lenge hatt en mistanke om at selv ikke en god definisjon er nok.

Jeg kan godt øve meg slik at jeg trekker ut utsagn på samme måte hver gang. Det er noe som delvis kommer med trening. Problemet er interjudge-reliabilitet. Dersom en annen person skulle ta utgangspunkt i det samme datasettet som jeg har (intervjuene), ville vedkommende komme fram til andre konklusjoner hvis det er lav interjudge-reliabilitet på utsagnsuttak.

Man har et prinsipp i forskningen kalt replikabilitet, som betyr at en studie bør komme fram til samme resultater hvis den gjentas helt likt.

Nå har jeg rekruttert Lars-Martin fra “Lille-Arb.Org.” (2010/12-kullet). Han fulgte det jeg trodde var en god definisjon, og han fikk trening, men allikevel kom vi fram til 63,6 % enighet. En revisjon av definisjonene økte enigheten til 68,9 %. Med tanke på at jeg siktet på 90 % så er de resultatene jeg har fått ganske dårlige. Det sier noe om at utsagnsuttak kan være en svært subjektiv vurdering, og da må jo spørre seg om ikke forskning basert på utsagn fra intervjutranskripsjoner har dårlig validitet.