Simple Swedish Podcast - #66 - Deepfakes [medel]

Episode Date: December 18, 2020

Hallå hallå, kära lyssnare! Nu är det snart jul, men eftersom jag redan har spelat in ett avsnitt om tomten känner jag att det är helt okej att ha teman som inte alls har med julen att göra. Id...ag pratar jag om deepfakes. Syntetisk media skapad med hjälp av artificiell intelligens. Ett intressant och även skrämmande ämne. Hoppas ni tycker det är intressant! Om du är intresserad av att stödja det här projektet, då kan du bli patron! Då får du tillgång till kompletta PDF-transkript till alla avsnitt med övningsfrågor och förklaringar på svåra ord. Du kan också få tillgång till vårt chattrum där du kan skriva med mig och de andra där på svenska. Gå in på min hemsida, swedishlinguist.com, och följ länken till min Patreon-sida :) If you're interested in supporting this project, you can become a patron! Then you'll get access to full PDF transcripts to all episodes with practice questions and explanations of difficult words. You can also get access to our chat room where you can text me and the others there in Swedish. Go to my website, swedishlinguist.com, and follow the link to my Patreon page :)

Transcript
Discussion (0)
Starting point is 00:00:00 Hej och välkommen till Simple Swedish Podcast. Ja, jag heter Fredrik och det här är podden där du kan lyssna på svenska i lite långsammare format, lite enklare. Och på så sätt öva på din hörförmåga. Jag hoppas att ni har en trevlig december månad. Snart är det jul. Där jag är finns det tyvärr ingen snö alls. Det är sex grader och mulet. Mulet alltså att det är molnigt. Ingen sol.
Starting point is 00:00:52 Så inte det roligaste vädret men väldigt standard här i Sverige på vintern. Så idag ska jag prata om deepfakes, ett väldigt intressant och också läskigt ämne men först så vill jag göra lite shoutout till några nya patrons och det är Vojta, Kolarik, MM Josh Lang
Starting point is 00:01:18 eller Lange, eller jag vet inte förlåt att jag uttalar ditt namn fel Maria Kolbinskaya och Axel Klein Eller jag vet inte. Förlåt att jag uttalar ditt namn fel. Maria Kolbinskaja och Axel Klein. Jättestort tack till er för att ni stödjer det här projektet. Om någon annan också vill stödja den här podden kan ni gå in på min hemsida swedishlinguist.com och hitta länken till min Patreon-sida. Min hemsida kommer för övrigt snart att bli ny, alltså det kommer en ny version av den snart.
Starting point is 00:01:57 Och jag har lite projekt som jag jobbar på som också kommer förhoppningsvis i januari. Men ja, nu ska vi då lyssna på dagens avsnitt. en bok i avsnittet men jag är definitivt inte sponsrad eller någonting sånt. Jag har aldrig haft någon sponsor och om jag hade en sponsor då skulle jag säga det.
Starting point is 00:02:35 Jag bara nämner den eftersom jag tycker den verkar väldigt intressant. Okej, då ska jag prata om deepfakes och ja när internet kom så och all information
Starting point is 00:02:55 började bli tillgänglig för alla alltså alla kunde hitta all information på nätet ja då tror jag att många tänkte att Alltså alla kunde hitta all information på nätet. Då tror jag att många tänkte att det kommer bli mycket lättare att veta vad som är sant och vad som är falskt. Eftersom om all information finns där tillgänglig för alla, då blir det lättare att veta vad som är sant och vad som är falskt.
Starting point is 00:03:34 Men jag tror att de flesta av oss har insett att det inte är så enkelt. Och det har blivit extra tydligt nu med hela fake news-grejen. Och det är faktiskt nästan svårare att veta vad som är sant och vad som är falskt. För att det finns väldigt mycket falsk information och det finns människor som säger att information är falsk och det är fake news och det är fake news och så vidare. Och det är väldigt svårt att veta hur man ska handskas med det här. Men tyvärr så är det bara början. För den tekniken som kommer nu med deepfakes, det är antagligen en av de allra största utmaningarna som vi kommer ha de närmsta åren.
Starting point is 00:04:39 Så ja, vad är om deepfakes förut så googla det här direkt eller kanske gå till Youtube och sök på deepfakes. Det finns många roliga videor men om man tänker efter lite så förstår man att det inte bara är roliga saker som kan göras med den här tekniken. Så en deepfake det är syntetisk media som är genererat av AI, alltså artificiell intelligens. Och det kan vara video, det kan vara ljud, det kan vara bilder. Och det finns såklart många bra sätt att använda det här på, till exempel i filmindustrin. Du kan ta skådespelare som är döda och använda dem i nya filmer till exempel. Men det finns också väldigt många stora risker med den här tekniken. Den kan användas för propaganda, den kan påverka våra demokratier och den största grejen som kommer hända de kommande tio åren det är att den här tekniken kommer vara tillgänglig för alla. Så vem som helst kommer kunna skapa en fake video.
Starting point is 00:06:26 Alltså en 15-åring kan skapa en fake video av sin klasskompis. Terrorister kan skapa fake videos av politiker eller stater kan skapa
Starting point is 00:06:42 fake videos som kan användas mot andra stater. Så att det finns väldigt många saker som kan hända. Liksom teknik som nu behöver en Hollywoodstudio och jättemycket pengar. Den tekniken kommer väldigt snart vara tillgänglig för vem som helst. Och det här är också ett problem just för att det går så fort. För att om du tänker på boktryckning, det utvecklades väldigt långsamt. Om du tänker på fotografi som uppfanns för 200 år sedan, eller film som uppfanns förra år sedan, jag vet inte när.
Starting point is 00:07:45 Men utvecklingen gick väldigt långsamt. Så samhället kunde vänja sig. Ibland glömmer jag ord på svenska. Samhället kunde adapt. Ibland glömmer jag ord på svenska. Samhället kunde adapt. Men nu när det är internet, det är smartphones, det är sociala medier, tekniken går väldigt snabbt. Och tänk på till exempel Donald Trump när han blev vald till president 2016. Och den här ljudinspelningen läckte.
Starting point is 00:08:35 Där han säger den här grabben by the pussy. Hela den grejen. Då var han tvungen att be om ursäkt. Och Trump ber aldrig om ursäkt. Men då var han faktiskt tvungen att be om ursäkt. Och Trump ber aldrig om ursäkt. Men då var han faktiskt tvungen att be om ursäkt. Men om den inspelningen hade kommit nu, om den hade kommit idag, då hade han kunnat säga att den är fake. Att han inte har sagt det. Och tänk på den videon med George Floyd som startade hela Black Lives Matter-protesterna.
Starting point is 00:09:17 Den videon, om den hade kommit om fem år, fem år in i framtiden. Om den videon hade kommit då. Då hade folk kunnat säga nej men den är fejk. Den hände inte. Så väldigt snart så kommer vi inte kunna veta om en video är verklig eller fejk.
Starting point is 00:09:44 Och det här är en jätt verklig eller fake. Och det här är en jättestor grej. Video har alltid varit någonting som vi kan lita på. Det har alltid varit någonting som man kan säga att om du ser en video av någonting, av en person då vet du att det den personen säger i videon, det är sant. Men väldigt snart så kommer det inte vara så. Och det här är verkligen någonting som vi måste kunna handskas med. Vi måste hitta lösningar på det här. Och jag tror verkligen på mänskligheten. Jag tror på teknologin. Jag tror att det är teknologin som vi måste bara hitta sätt att lösa de problem som kommer.
Starting point is 00:11:33 Att alla är medvetna om det här. Att alla vet vad som händer. Så att alla är beredda och måste alla ha kunskap, ha information och jobba för att lösa det. Om det här så kan du kolla upp Nina Schick. Hon har skrivit en bok som heter Deepfakes and the Infocalypse. Du kan också lyssna på Sam Harris podcast nummer 220, The Information Apocalypse, där han intervjuar Nina Schick. Det var det podcastavsnittet som gav mig idén att göra det här avsnittet. Så ja. Och jag älskar Sam Harris podcast. Jag tycker den är väldigt, väldigt informativ. Jag tycker den är väldigt, väldigt informativ. Så, ja, om du inte hade koll på deepfakes innan det här avsnittet, gå och googla detta eller sök på Youtube.
Starting point is 00:12:46 Och så, ja, det var allt för mig idag och nästa gång vi hörs så är det efter jul så jag passar på att säga god jul till er. God jul och gott nytt år
Starting point is 00:13:01 och ha det riktigt, riktigt gött i jul och ät nytt år. Och ha det riktigt, riktigt gött i jul. Och ät mycket mat. Jag vet att julen i år inte är som vanligt. Men jag hoppas att alla gör det bästa av situationen. Ha det så bra. Hej, hej.

There aren't comments yet for this episode. Click on any sentence in the transcript to leave a comment.