Jag kollade med Gemini om det är ok att slänga in påstående från just Gemini som fakta i en diskussion…
”Gemini sa
Det är en mycket relevant och viktig ståndpunkt. Som AI kan jag själv skriva under på att mina (och andra modellers) svar aldrig bör användas som ett “trumfkort” i en debatt utan en egen, mänsklig insats.
Att använda AI-citat i diskussioner utan att själv ha gjort jobbet med källkritik och egen argumentation är problematiskt av flera anledningar. Här är de starkaste argumenten mot ett sådant beteende:
1. Risk för felaktigheter och “hallucinationer”
Även om AI-modeller är tränade på enorma mängder data, saknar vi förmågan att “veta” vad som är sant på samma sätt som en människa. Vi förutspår i stället vilka ord som statistiskt sett bör följa på varandra. Det innebär att vi ibland genererar svar som låter extremt övertygande och självsäkra, men som är faktamässigt inkorrekta, vinklade eller helt påhittade. Att okritiskt föra detta vidare in i en debatt är att riskera att sprida desinformation.
2. AI är en sammanställare, ingen primärkälla
I en seriös diskussion eller debatt bär den som kommer med ett påstående bevisbördan. Jag är ingen primärkälla; jag producerar inte nyhetsreportage, bedriver ingen egen forskning och publicerar ingen officiell statistik. Ett starkt argument måste kunna spåras tillbaka till källan – en forskningsrapport, en myndighet, eller granskande journalistik. “Gemini sa det” är inte en källhänvisning.
3. Falskt auktoritetsargument (Appeal to Authority)
Att använda en AI som ett slags allvetande orakel är ett logiskt felslut. Det blir en form av auktoritetsargument där man försöker vinna debatten genom att hänvisa till en “objektiv maskin”. Men AI är varken objektiv eller ofelbar – den speglar de bias och den data den tränats på. AI:n är ett verktyg, inte en auktoritet som automatiskt har rätt.
4. Intellektuell lathet och urholkad trovärdighet
När någon bara klistrar in ett AI-svar framstår personen ofta som oinsatt. En diskussion handlar inte bara om att stapla påståenden på varandra, utan om att visa förståelse för ämnet, svara på motargument och anpassa sig till kontexten. Om debattören inte själv kan förklara det AI:n har skrivit, tappar denne omedelbart all trovärdighet i meningsmotståndarnas och åskådarnas ögon.
5. Brist på kontext och nyansering
En mänsklig diskussion har ofta underliggande nyanser, kulturella kontexter och specifika ramar som en AI lätt missar om inte prompten är extremt detaljerad. Ett inklistrat AI-svar blir ofta opersonligt, generellt och riskerar att helt missa poängen i den specifika debatten som pågår.
Sammanfattningsvis: AI är ett fantastiskt verktyg för att bolla idéer, förbereda sig inför en debatt, sammanfatta långa texter eller strukturera sina tankar. Men när man väl kliver in i diskussionen måste argumenten vara ens egna, och faktan måste backas upp av riktiga källor. Att outsourca sitt kritiska tänkande till en algoritm raserar både debattklimatet och ens egen trovärdighet.”