Navicrawler: Et manuelt netværks-værktøj, hvor man ”høster” websider til det korpus, der udgør vores hyperlink-netværk.
Issuecrawler: Et automatiseret netværks-genererings-værktøj, en automatiseret crawl via hyperlinks. Dette værktøj er især brugt til at finde nye aktører i starten af vores crawl-proces.
De to metoder navicrawler og issuecrawler bruger vi til at skabe et hyperlink-netværk omkring vores kontrovers. Ved hjælp af navicrawler har vi foretaget en manuel webcrawling. Issuecrawler brugte vi indledende til at afsøge netværket omkring vores kontrovers ud fra de startsider, vi havde identificeret som centrale i kontroversen i vores kvalitative indledende eksploration af internettet.
Hyperlinkkortet er så at sige rugbrødet i vores kontrovers. Her får vi overblik over kontroversen på en semi-automatiseret måde – omend kortet selvfølgelig er informeret af vores interessefelt: kampflyvalget. Dette kort søger dermed at indfange så mange forskellige relevante aktører som muligt, der relaterer sig til hinanden omkring vores kontrovers. Dette for at sikre proportionalitet, hvor aktørerne i kortet er repræsentative for organiseringen omkring kontroversen. Desuden redundans, idet vi søger at inkorporere så diverse positioner i relation til kontroversen som muligt. Redundansen søger vi desuden at sikre ved at have flere forskellige kort og andre materialer, der dækker kontroversen, fx også et mere kvalitativt udarbejdet manuelt kort. Hyperlink-kortet skal således sikre et solidt empirisk grundlag for vores analyse. Dette for at undgå, at trække en fortolkning ned over kontroversen, som ikke har rod i aktørernes faktiske positioneringer i forhold til den.
En fare ved en kortlægning med navicrawler kan dog være, i kraft af det faktum, at vi følger links manuelt, at vi kommer til at crawle i en bestemt retning, hvorfor andre mulige retninger overses. At vi lader os lede af vores interesser, som Venturini beskriver, så vi ikke får en optimal proportionalitet. Derfor har vores løbende kvalitative udforskning af centrale aktørers hjemmesider været en måde at forhindre os selv i at ”crawle ud ad en tangent”. Vores proces har været iterativ i udarbejdelsen af kortet: Vi er løbende vendt tilbage til en mere kvalitativ ”flyden rundt” på nettet for at afdække, om der var aktører, vi manglede i kortet, og som viste sig centrale for kontroversen. På den måde kan man sige, at den iterative proces omkring vores hyperlink-kort-udarbejdelse minder lidt om abduktion – en vekselvirkning mellem vores interesse/forforståelse af feltet og så det, vi konkret finder i vores crawling på nettet. Således at vores interesse for en bestemt analytik (i vores tilfælde eksempelvis omkring teknologiske zoner) ikke er fuldkommen forudgivet, men fremkommet i et samspil med vores webcrawling. En proces, hvor vi bevæger os frem og tilbage i processen: Laver et kort, ser på det, crawler igen, ser på det nye kort, crawler igen. Man går tilbage i processen og gentænker sit fokus så at sige. Dermed hænger det metodologiske og det teoretiske også tæt sammen, ja det er svært at adskille de to – analyse og empiriindsamling (generering af netværkskortet) er sket samtidig. Vi ser her den aktør-netværks-teoretiske arv i vores kontroverskortlægning: metode og teori kan ikke adskilles, ANT er begge ting på én gang.
Gephi: Et værktøj der kan bruges til at visualisere og analysere netværk. Vi har brugt det til at behandle det data vi har samlet via navicrawler og issuecrawler. I gephi har man mulighed for at vælge imellem hvilke algoritmer man bruger til at visualisere et netværk af noder og edges. Vi har valgt den der hedder ForceAtlas2, hvis analytiske anvendelighed også omtales af Venturini et al (2014: 3).
Lippmanian Device (Google scraper): Et værktøj, der via Google kan ”høste” ord eller sætninger fra forskellige hjemmesider, for at se hvor hyppigt de optræder.
Dette værktøj har vi brugt for at indfange hvordan centrale aktører artikulerer sig på bestemte måder, og dermed placerer sig semantisk i kontroversen. Det handler altså om hvordan kontroversen og aktørernes positionering i den, kan ses som særlige semantiske aflejringer på nettet. Dette har også udgjort et empirisk grundlag for analysen. Det interessante er her, om de formationer, vi ser i hyper-link-kortet, som har ledt os mod en Barry-inspireret analytik, kan genfindes på et semantisk niveau. Fx hvordan valget af F35 som en adgangsbillet til kvalifikationszonen NATO kan forstås ud fra fx hvor hyppigt netop denne flytype optræder på NATOs hjemmeside.
Netvizz og Seealsology er to automatiserede crawlere, som vi har brugt til at identificere netværk på henholdsvis facebook og wikipedia.
Kvalitativ dokumentanalyse: Her trækker vi på pointer fra Justesen (2010). De dokumentanalytiske elementer i vores kortlægning er foretaget i et ANT-perspektiv. Det vil sige, at fokus har været på, hvad dokumenterne gør, ikke blot at se dem som indhold. Dette kommer både til udtryk i vores læsning af typevalgsrapporten, indsamling af billeder og i vores udarbejdelse af det manuelle netværkskort omkring den indstillede kandidat F35. Dokumenterne er aktør-netværk og de indgår selv i bredere aktør-netværk – de indrullerer og de er selv indrulleret. Det manuelle netværkskort, udarbejdet på baggrund af læsning af dokumenter, kan ses som en grafisk illustration af denne pointe: Dokumenterne er indrulleret i et netværk omkring kampflyvalget, hvilket sker gennem dokumenternes egen indrullering af eksperter, der udtaler sig. Dermed skaber dokumenterne forbindelser, de gør noget, de skaber et netværk. Således har det relationelle været i fokus i vores dokumentlæsninger: Hvilke relationer dokumenterne skaber mellem forskellige aktører: Fx en positiv relation mellem Forsvarsministeriet og Lockheed Martin som følge af indstillingen af F35 i typevalgs-rapporten.
Issuecrawler: Et automatiseret netværks-genererings-værktøj, en automatiseret crawl via hyperlinks. Dette værktøj er især brugt til at finde nye aktører i starten af vores crawl-proces.
De to metoder navicrawler og issuecrawler bruger vi til at skabe et hyperlink-netværk omkring vores kontrovers. Ved hjælp af navicrawler har vi foretaget en manuel webcrawling. Issuecrawler brugte vi indledende til at afsøge netværket omkring vores kontrovers ud fra de startsider, vi havde identificeret som centrale i kontroversen i vores kvalitative indledende eksploration af internettet.
Hyperlinkkortet er så at sige rugbrødet i vores kontrovers. Her får vi overblik over kontroversen på en semi-automatiseret måde – omend kortet selvfølgelig er informeret af vores interessefelt: kampflyvalget. Dette kort søger dermed at indfange så mange forskellige relevante aktører som muligt, der relaterer sig til hinanden omkring vores kontrovers. Dette for at sikre proportionalitet, hvor aktørerne i kortet er repræsentative for organiseringen omkring kontroversen. Desuden redundans, idet vi søger at inkorporere så diverse positioner i relation til kontroversen som muligt. Redundansen søger vi desuden at sikre ved at have flere forskellige kort og andre materialer, der dækker kontroversen, fx også et mere kvalitativt udarbejdet manuelt kort. Hyperlink-kortet skal således sikre et solidt empirisk grundlag for vores analyse. Dette for at undgå, at trække en fortolkning ned over kontroversen, som ikke har rod i aktørernes faktiske positioneringer i forhold til den.
En fare ved en kortlægning med navicrawler kan dog være, i kraft af det faktum, at vi følger links manuelt, at vi kommer til at crawle i en bestemt retning, hvorfor andre mulige retninger overses. At vi lader os lede af vores interesser, som Venturini beskriver, så vi ikke får en optimal proportionalitet. Derfor har vores løbende kvalitative udforskning af centrale aktørers hjemmesider været en måde at forhindre os selv i at ”crawle ud ad en tangent”. Vores proces har været iterativ i udarbejdelsen af kortet: Vi er løbende vendt tilbage til en mere kvalitativ ”flyden rundt” på nettet for at afdække, om der var aktører, vi manglede i kortet, og som viste sig centrale for kontroversen. På den måde kan man sige, at den iterative proces omkring vores hyperlink-kort-udarbejdelse minder lidt om abduktion – en vekselvirkning mellem vores interesse/forforståelse af feltet og så det, vi konkret finder i vores crawling på nettet. Således at vores interesse for en bestemt analytik (i vores tilfælde eksempelvis omkring teknologiske zoner) ikke er fuldkommen forudgivet, men fremkommet i et samspil med vores webcrawling. En proces, hvor vi bevæger os frem og tilbage i processen: Laver et kort, ser på det, crawler igen, ser på det nye kort, crawler igen. Man går tilbage i processen og gentænker sit fokus så at sige. Dermed hænger det metodologiske og det teoretiske også tæt sammen, ja det er svært at adskille de to – analyse og empiriindsamling (generering af netværkskortet) er sket samtidig. Vi ser her den aktør-netværks-teoretiske arv i vores kontroverskortlægning: metode og teori kan ikke adskilles, ANT er begge ting på én gang.
Gephi: Et værktøj der kan bruges til at visualisere og analysere netværk. Vi har brugt det til at behandle det data vi har samlet via navicrawler og issuecrawler. I gephi har man mulighed for at vælge imellem hvilke algoritmer man bruger til at visualisere et netværk af noder og edges. Vi har valgt den der hedder ForceAtlas2, hvis analytiske anvendelighed også omtales af Venturini et al (2014: 3).
Lippmanian Device (Google scraper): Et værktøj, der via Google kan ”høste” ord eller sætninger fra forskellige hjemmesider, for at se hvor hyppigt de optræder.
Dette værktøj har vi brugt for at indfange hvordan centrale aktører artikulerer sig på bestemte måder, og dermed placerer sig semantisk i kontroversen. Det handler altså om hvordan kontroversen og aktørernes positionering i den, kan ses som særlige semantiske aflejringer på nettet. Dette har også udgjort et empirisk grundlag for analysen. Det interessante er her, om de formationer, vi ser i hyper-link-kortet, som har ledt os mod en Barry-inspireret analytik, kan genfindes på et semantisk niveau. Fx hvordan valget af F35 som en adgangsbillet til kvalifikationszonen NATO kan forstås ud fra fx hvor hyppigt netop denne flytype optræder på NATOs hjemmeside.
Netvizz og Seealsology er to automatiserede crawlere, som vi har brugt til at identificere netværk på henholdsvis facebook og wikipedia.
Kvalitativ dokumentanalyse: Her trækker vi på pointer fra Justesen (2010). De dokumentanalytiske elementer i vores kortlægning er foretaget i et ANT-perspektiv. Det vil sige, at fokus har været på, hvad dokumenterne gør, ikke blot at se dem som indhold. Dette kommer både til udtryk i vores læsning af typevalgsrapporten, indsamling af billeder og i vores udarbejdelse af det manuelle netværkskort omkring den indstillede kandidat F35. Dokumenterne er aktør-netværk og de indgår selv i bredere aktør-netværk – de indrullerer og de er selv indrulleret. Det manuelle netværkskort, udarbejdet på baggrund af læsning af dokumenter, kan ses som en grafisk illustration af denne pointe: Dokumenterne er indrulleret i et netværk omkring kampflyvalget, hvilket sker gennem dokumenternes egen indrullering af eksperter, der udtaler sig. Dermed skaber dokumenterne forbindelser, de gør noget, de skaber et netværk. Således har det relationelle været i fokus i vores dokumentlæsninger: Hvilke relationer dokumenterne skaber mellem forskellige aktører: Fx en positiv relation mellem Forsvarsministeriet og Lockheed Martin som følge af indstillingen af F35 i typevalgs-rapporten.