clio-research är ett autonomt evidensverktyg för epistemologiskt öppna frågeställningar. Systemet söker vetenskaplig litteratur globalt, på flera språk, och sammanställer en strukturerad rapport med källkritisk bedömning. Den här sidan beskriver hur systemet fungerar och hur poängsättningen är gjord.
Senast uppdaterad: maj 2025 (R1.0). Metodbeskrivningen uppdateras när systemet förändras.
Sökning i åtta faser
Varje körning följer ett protokoll (en JSON-fil) som definierar frågeställning och söktermer på upp till sju språk. Sökningen sker i åtta faser:
- Scoping — bred inledande sökning för att kartlägga fältet
- Broad — utvidgad sökning med fler termer och databaser
- Regional — riktad sökning mot icke-anglofona databaser (ryska, japanska, kinesiska m.fl.)
- Adversarial — aktiv sökning efter motbevis och falsifieringsförsök
- Citation chase — framåt- och bakåtcitationsanalys av de starkaste källorna
- Credibility scoring — trovärdighetspoängsättning av alla insamlade källor
- Relevansfiltrering och rapport — filtrering till de mest relevanta källorna, följt av rapportgenerering
- Leverans — rapporten indexeras och skickas per e-post
Databaserna som söks i R1.0: OpenAlex, Semantic Scholar, CORE, CrossRef, J-STAGE (japansk vetenskaplig litteratur).
Trovärdighetspoäng (0–18)
Varje källa poängsätts automatiskt på sex dimensioner, 0–3 poäng per dimension, max 18 poäng totalt. Poängen är ett internt filtreringsverktyg — den är inte en dom om källans allmänna värde, utan ett mått på hur väl den uppfyller kriterier för systematisk evidensgranskning.
| Dimension | 0 poäng | 1–2 poäng | 3 poäng |
|---|---|---|---|
| Metodologisk stringens | Ingen beskriven metod | Metod beskriven men ej replikerbar | Kontrollgrupp, blindning, replikerbar |
| Institutionell oberoende | Stark intressekonflikt | Viss koppling till intressent | Oberoende institution, ingen uppenbar intressekonflikt |
| Geografisk konvergens | Endast en forskargrupp | Liknande fynd från 2–3 länder | Oberoende replikering i flera kultursfärer |
| Intern konsistens | Självmotsägelser eller datafel | Mindre inkonsistenser | Konsistent genomförd, data och slutsatser stämmer |
| Falsifieringsförsök | Inga alternativa hypoteser testade | Alternativ diskuteras men testas inte | Aktiva försök att falsifiera, alternativ utesluten |
| Tidsstabilitet | Isolerat fynd, ej uppföljt | Begränsad uppföljning | Fynd har stått sig över tid och bekräftats i uppföljningar |
Relevansfiltrering
Efter trovärdighetspoängsättningen filtreras källorna genom en semantisk likhetsanalys. Frågeställningen och varje källas titel och abstract omvandlas till vektorer med OpenAIs inbäddningsmodell (text-embedding-3-small). Cosine-similarity beräknas mellan frågeställningens vektor och varje källas vektor.
Källor med similarity under 0,20 utesluts. Av de återstående väljs de 60 mest relevanta, rankade efter en kombinerad poäng: 60 % relevansscore + 40 % trovärdighetspoäng.
Rapportens sektioner
- Frågeställning — vad undersöks och mot vilka kontroller
- Kärnanspråket — en neutral, precis formulering av vad som påstås
- Starkaste evidenskluster — konvergerande fynd med geografisk spridning
- Svagaste länkarna — metodologiska problem, replikeringsfel
- Motbevislandskapet — vad som seriöst testats och motbevisats
- Vita fläckar — vad ingen ännu har undersökt
- Epistemologisk bedömning — evidensläge på en femgradig skala
- Källornas ställningstaganden — varje källa klassificerad som stöd / neutral / avvisar
- Källförteckning — APA 7, med trovärdighets- och relevansscore
Begränsningar
- Systemet söker publicerad litteratur — opublicerade data och muntliga traditioner fångas inte
- Trovärdighetspoängen är automatiserad och kan inte ersätta manuell källkritik
- CyberLeninka (rysk öppen vetenskap) stöds inte fullt ut i R1.0
- Fulltext hämtas i mån av öppen tillgång — bakom betalväggar används abstract
- Systemet tar inte ställning till om ett påstående är sant, endast till evidensläget i litteraturen
Frågor: fredrik@arvas.se
