Mēs dzīvojam laikā, kad Vairs nepietiek tikai kaut ko redzēt vai dzirdēt, lai to uzskatītu par patiesību.Hiperreālistiski video, kuros politiķi saka nekaunīgas lietas, audio ieraksti, kuros vadītāji pasūta vairāku miljonu dolāru pārskaitījumus, vai viltoti intīmi attēli, kas cirkulē sociālajos tīklos… Tas viss ir iespējams, pateicoties… deepfakesUn jebkurš no mums var kļūt par upuri; jums nav jābūt slavenam.
Lai pilnībā izprastu, kas tie ir, kā tie tiek radīti, kādus riskus tie rada un, pats galvenais, Kā mēs varam tos atpazīt un pasargāt sevi? ir kļuvusi par digitālo pamatprasmi, gandrīz tikpat svarīgu kā prasme atšķirt e-pastu no Phishing vai konfigurējiet mobilā tālruņa privātuma iestatījumus.
Kas ir dziļviltojumi un kāpēc tie ir kļuvuši tik populāri?
Dziļi viltojumi ir viltots audiovizuāls saturs (video, attēls vai audio), kas ģenerēts vai manipulēts ar mākslīgo intelektu lai tie izskatītos pilnīgi autentiski. Termins cēlies no "dziļi" (pēc dziļa mācīšanās vai dziļā mācīšanās) un “viltojums"(aplams). Tas ir, tie ir dziļi viltojumi, kuru pamatā ir mašīnmācīšanās algoritmi, kas spēj atdarināt cilvēka sejas vaibstus, žestus un balsis ar tādu reālismu, kas no pirmā acu uzmetiena var apmānīt jebkuru."
Lai gan attēlu un skaņu manipulācijām ir sena vēsture, Pašreizējais dziļviltojumu uzplaukums sākās ap 2017. gadu.Viss sākās, kad kāds Reddit lietotājs sāka publicēt pornogrāfiskus video, kuros viņš digitāli aizstāja slavenu aktrišu sejas ar citu cilvēku sejām. Kopš tā laika tehnoloģija ir kļuvusi plašāk izplatīta, rīki ir arvien pieejamāki, un rezultātus ir grūtāk atklāt.
Šī evolūcija ir pārveidojusi dziļfakus par kaut ko daudz nopietnāku nekā tikai izklaidi: Tie jau ir instruments dezinformācijai, krāpšanai, kibermobingam un izspiešanai., tieši ietekmējot indivīdu, uzņēmumu un iestāžu reputāciju un pat vēlēšanu procesus un valstu stabilitāti.
Kā darbojas dziļviltojumu tehnoloģija
Lai izveidotu pārliecinošu dziļviltojumu, video rediģēšanas programma vien nav pietiekama. Galvenais ir dziļu neironu tīklu un liela datu apjoma izmantošana. (fotoattēli, video, balss ieraksti). No šī materiāla mākslīgais intelekts "iemācās", kā izskatās cilvēka seja, balss un kustības, lai vēlāk tos atdarinātu jaunos kontekstos.
Visizplatītākā metode ir balstīta uz to, kas pazīstams kā GAN (Ģeneratīvie konkurējošie tīkli)Šajā modelī sadarbojas un konkurē divi neironu tīkli: viens ģenerē viltotus attēlus vai audio, bet otrs mēģina noteikt, vai tie ir īsti vai viltoti. Process tiek atkārtots tik reižu, ka pamazām ģenerators izdodas radīt saturu, ko diskriminētājs vairs nespēj identificēt kā viltotu.
Praksē, lai izveidotu sejas video, sistēmai tiek padoti tūkstošiem oriģinālās sejas un uzliktās sejas rāmji"Kodētāja" algoritms nosaka kopīgas iezīmes (sejas formu, kaulu struktūru, pamatproporcijas) un reducē tās līdz iekšējam attēlojumam. Pēc tam divi "dekodētāji" rekonstruē šīs sejas: viens personai A un otrs personai B. Apmainoties ar informāciju savā starpā, personas A seja pārņem personas B izteiksmes, kustības un žestus.
Balss gadījumā modeļi analizē tādas īpašības kā tembrs, ritms, intonācija vai sarežģītu skaņu izruna. Katrā cilvēka balss sekundē ir tūkstošiem datu punktu, ko mākslīgais intelekts var apgūt.līdz pat balsu klonēšanai ar tikai dažām minūtēm tīra audio, padarot arvien grūtāk atšķirt īstu ierakstu no sintezēta.
Galvenie mūsdienās cirkulējošo dziļviltojumu veidi
Dziļo viltojumu pasaulē var izšķirt vairākas kategorijas atkarībā no manipulētā satura veida. Visbiežāk tie koncentrējas uz seju un balsi.lai gan ir arī modernākas variācijas.
No vienas puses, mums ir tā sauktais. "dziļās sejas"kas ir attēlu vai videoklipu dziļviltojumi, kuros izveidot vai aizstāt veselas sejasTās var sākties ar reālu materiālu, apvienojot vairāku cilvēku sejas, vai pat tikt ģenerētas no nulles, kā rezultātā rodas tādu indivīdu sejas, kas neeksistē, bet šķiet pilnīgi reālas. Šīs metodes tiek izmantotas gan vienas personas sejas uzlikšanai uz citas personas ķermeņa, gan sintētisku rakstzīmju ģenerēšanai.
No otras puses ir "dziļās balsis"kas koncentrējas uz audio. Šeit mākslīgais intelekts tiek apmācīts ar upura balss ierakstiem un pēc tam ģenerē jaunus ziņojumus, kas izklausās praktiski identiski īstās personas ziņojumiem.Šāda veida viltošana jau ir izmantota korporatīvās krāpšanas gadījumos, piemēram, labi zināmajā gadījumā, kad vadītājs pārskaitīja vairāk nekā 200 000 ASV dolāru, ticot, ka pakļaujas sava izpilddirektora rīkojumam, lai gan patiesībā viņš dzirdēja klonētu balsi.
Ir arī sarežģītāki varianti, kas apvieno vairākus elementus: Dziļi viltojumi, kas maina žestus, stāju un vidivai kas modificē ne tikai seju, bet arī visu ķermeni, lai gan tas prasa daudz lielāku skaitļošanas jaudu un ir vēl retāk sastopams mājas apstākļos.
Kā praksē izveidot dziļviltojumu
Lai gan tas var izklausīties ļoti tehniski, mūsdienās Vienkārša dziļviltojumu izveide ir pa spēkam ikvienam, kam ir pienācīgs dators vai pat jaudīgs mobilais tālrunis.Jo lielākas zināšanas par mākslīgo intelektu, rediģēšanu un pēcapstrādi ir personai, kas to ģenerē, jo smalkāks un reālistiskāks būs rezultāts, taču ir "gandrīz automātiskas" programmas, kas veic lielu daļu darba.
Vienkāršoti sakot, process parasti notiek šādi: vispirms tiek savākti daudzi mērķa personas attēli, video vai audio ieraksti; pēc tam modeļi tiek apmācīti apgūt to raksturīgās iezīmes; un visbeidzot, Šis modelis tiek piemērots pamata video vai audio failam, lai ģenerētu viltotu saturu.Pēc tam redzamie artefakti (dīvainas malas, nepareizi novietotas ēnas, dīvainas kustības) tiek laboti, izmantojot tradicionālo rediģēšanu.
Sarežģītākos gadījumos tiek izmantotas sarežģītas metodes, piemēram, jau apspriestie GAN. Ģenerators ģenerē viltus kadru, diskriminators to novērtē, tiek aprēķināta kļūda un parametri tiek pielāgoti; tādējādi, iesaistot tūkstošiem iterāciju, Tas sasniedz reālisma līmeni, kas var pārspēt vidusmēra cilvēka aci.Papildus tam ir arī krāsu, apgaismojuma, lūpu sinhronizācijas un skaņas sajaukšanas pielāgojumi, lai pulētu rezultātu.
Fotoattēlu jomā tiek izmantoti arī šādi: specifiski saspiešanas kļūdu analīzes (ELA) un metadatu analīzes rīki lai identificētu iespējamās manipulācijas. Tomēr vismodernākie radītāji jau zina par šīm metodēm un cenšas dzēst vai modificēt šo informāciju, lai tā neatklātu maldināšanu.
Dziļo viltojumu pozitīvie pielietojumi: ne viss ir tumšs
Neskatoties uz slikto reputāciju, arī dziļviltojumi Tiem ir likumīgi un radoši pielietojumi tādās jomās kā kino, māksla, izglītība un medicīna.Problēma nav pašā tehnoloģijā, bet gan veidā, kā tā tiek izmantota.
Audiovizuālajā nozarē tie ir izmantoti digitāli atjaunot vai “atdzīvināt” aktierus un lai pabeigtu ainas, ja tās nebija iespējams fiziski filmēt. Tos izmanto arī, lai pielāgotu dialogus dublēšanas laikā, labotu filmēšanas kļūdas vai atjaunotu vēsturiskas personas dokumentālajās filmās. Tādi piemēri kā princeses Lejas atveidošana vai ieskaujošas izstādes, piemēram, "Dalī Lives", ilustrē to, cik lielā mērā šīs metodes var bagātināt kultūras pieredzi.
Izglītībā un sabiedrības informēšanā dziļviltojumi ļauj izveidot reālistiskus avatārus, kas izskaidro sarežģītus jēdzienus vai simulē kritiskas situācijas apmācot speciālistus (pilotus, veselības aprūpes personālu, drošības spēkus utt.). Kontrolēta "viltus, bet ticamu" scenāriju izveide ir noderīga krīzes reaģēšanas sagatavošanā.
Terapeitiskajā jomā ir ierosināti ļoti jutīgi lietojumi, piemēram, lai palīdzētu dažiem cilvēkiem apstrādāt bēdas lai stātos pretī traumatiskām atmiņām, izmantojot kontrolētas rekonstrukcijas, vienmēr ievērojot ļoti stingrus ētiskus un klīniskus principus. Tiek pētīta arī balss klonēšana, lai daļēji atjaunotu spēju sazināties pacientiem, kuri to ir zaudējuši, kā tas notika ar labi zināmām personām, kuras atguva savu balss tembru, pateicoties audio modeļiem, kas apmācīti ar veciem ierakstiem.
Uzņēmējdarbības un e-komercijas nozarē tiek pētītas tādas lietojumprogrammas kā virtuālas pielaikošanas kabīnes ar personalizētiem avatāriem vai videospēles, kurās varoņi runā ar dabiskākām balsīm, ko ģenerē mākslīgais intelektsTie ir lietojumi, kas, labi pārvaldīti, var radīt pievienoto vērtību, nepārkāpjot tiesības.
Riski un ļaunprātīga izmantošana: kad dziļviltojumi kļūst par ieročiem
Lielākā problēma ir tā, ka nepareizajās rokās šī tehnoloģija kļūst spēcīgs instruments maldināšanai, manipulēšanai un kaitējuma nodarīšanaiDziļviltojumi jau tiek izmantoti vairākās satraucošās jomās.
Viens no nopietnākajiem ir dezinformācija un politiskās manipulācijasVideo, kuros redzami līderi, kas paziņo par militāro atkāpšanos, sprādzienbīstami paziņojumi vai safabricētas atzīšanās, var ietekmēt sabiedrisko domu, destabilizēt finanšu tirgus vai saspīlēt starptautiskās attiecības. Nesenos konfliktos jau ir novēroti gadījumi, kad tika izplatītas nepatiesas padošanās runas vai safabricēti politiski paziņojumi.
Tie ir kļuvuši arī par izplatītu instrumentu nomelnošanas kampaņas un reputācijas uzbrukumiViens viltots video ar kompromitējošu saturu ir pietiekams, lai sabojātu cilvēka publisko tēlu, pat ja vēlāk izrādās, ka tas ir viltojums. Sociālais un psiholoģiskais kaitējums rodas dažu stundu laikā, pateicoties sociālo mediju un ziņojumapmaiņas lietotņu vīrusu raksturam.
Arī ekonomikas sfēra nav saudzēta: balss un video dziļviltojumi tagad ir galvenā sastāvdaļa sarežģītas krāpšanas, identitātes zādzības un izpilddirektoru krāpšanas shēmasUzbrucēji izliekas par vecākajiem vadītājiem vai piegādātājiem, izmantojot zvanus, videozvanus vai balss ziņojumus, kas izklausās pārliecinoši īsti, lai iegūtu naudas pārskaitījumus, sensitīvus datus vai piekļuvi kritiski svarīgām sistēmām.
Situācija ir īpaši satraucoša, ja bez piekrišanas veidota seksuāla rakstura materiālaLielākā daļa tiešsaistē identificētā dziļviltošanas satura ir pornogrāfisks, un intīmos video bieži vien ir ievietotas slavenu sieviešu vai parastu cilvēku sejas. Tas tiek izmantots kibermobingam, seksuālai piespiešanai, atriebībai vai vienkāršai pazemošanai, radot cietušajiem ārkārtīgi nopietnas juridiskas un emocionālas sekas.
Pastāv arī smalkāka, bet tikpat bīstama parādība: tā sauktā "Informācijas apokalipse" jeb uzticības krīzeKad cilvēki pierod redzēt ļoti ticamu viltotu saturu, viņi var sākt neuzticēties visam, pat reāliem pierādījumiem. Tas rada ideālu augsni ikvienam, lai noraidītu neērtus pierādījumus, apgalvojot, ka "tie ir manipulēti".
Dziļviltus ļaunprogrammatūra: kad maldināšana apvienojas ar kiberuzbrukumiem
Pēdējos gados ir parādījies jēdziens, kas apvieno divas bīstamas pasaules: dziļviltojumu un ļaunprogrammatūras pasauli. DeepfakeMalware ir termins, ko lieto, lai aprakstītu noteiktus uzbrukumus, kuros tiek izmantota ģeneratīvā mākslīgā intelekta (AI) tehnoloģija, lai atbalstītu dezinformācijas kampaņas, finanšu krāpšanu vai kiberspiegošanu., integrējot viltotus video vai audio ierakstus uzbrukuma ķēdē.
Piemēram, uzbrucējs var iefiltrēties korporatīvajā videokonferencē, izliekoties par vadītājuIzmantojot klonētas sejas un balsis, viņi var iegūt konfidenciālu informāciju vai sniegt norādījumus, kurus neviens neapšaubīs. Viltus video var izplatīt arī, lai samazinātu uzņēmuma akciju cenu, sētu paniku tirgos vai manipulētu ar investīciju lēmumiem.
Šie uzbrukumi neaprobežojas tikai ar sociālo maldināšanu: Tradicionālā ļaunprogrammatūra var izmantot dziļviltojumu psiholoģisko ietekmi.Satraucošs video var apmānīt lietotājus, lai viņi lejupielādētu it kā "ielāpu", kas patiesībā ir vīruss, vai atvērtu ļaunprātīgu pielikumu, kas maskēts kā oficiāla uzņēmuma dokumentācija.
Lai ierobežotu šāda veida draudus, ir svarīgi apvienot labas kiberdrošības prakses (atjaunināta ļaunprogrammatūras novēršana, tīkla segmentācija, spēcīga autentifikācija) ar īpašu apmācību digitālo manipulāciju atklāšanā un identitātes pārbaudē zvanu, videozvanu vai steidzamu e-pastu laikā.
Kā atpazīt dziļviltojumu: pazīmes un praktiski triki
Dziļviltojumu atpazīšana ne vienmēr ir viegla, taču joprojām ir detaļas, kas var atklāt maldināšanu, īpaši mazāk noslīpētos montāžos. Ir vērts trenēt savu aci un ausi, lai pamanītu dažus smalkus trūkumus..
Runājot par vizuālajiem aspektiem, daži izplatīti rādītāji ir šādi: nedabiska mirkšķināšana (pārāk reta vai bieža)Nedaudz stīvas sejas kustības, pārāk gluda vai plastiska āda, izplūdušas sejas kontūras, dīvainas fona izmaiņas vai apgaismojuma kļūdas (neiespējamas ēnas, nesakrītoši atspīdumi). Kadri parasti ir tuvplāni, lai izvairītos no visa ķermeņa manipulācijām, un video parasti ir īsi, jo daudzu sekunžu augstas kvalitātes videoieraksta ģenerēšanai ir nepieciešama liela apstrādes jauda.
Ir arī vērts pievērst uzmanību tam, saskaņotība starp seju un pārējo ķermeniNesamērīgs kakls, rokas, kuras nekad nav redzamas, dīvainas pozas vai apģērbs, kas neatbilst kontekstam. Video atskaņošana palēninātā režīmā palīdz noteikt lēcienus vai "kļūmes" mutē, mēlē vai zobos — vietas, kuras ir īpaši grūti precīzi atveidot.
Audio ierakstā ir skaidra norāde, ka lūpu sinhronizācijaVar būt pamanāmas arī dīvainas izmaiņas skaņas vidē, piemēram, pēkšņi fona trokšņa pārtraukumi, nedaudz monotonas intonācijas vai problēmas ar noteiktām berzes skaņām (piemēram, "f" vai "s"), kuras modeļi joprojām izrunā nedaudz mākslīgā veidā.
Papildus šīm fiziskajām pazīmēm vienmēr ir jāanalizē satura izcelsme un kontekstsKas to publicēja pirmais? Kādā platformā? Vai to pārņem uzticami plašsaziņas līdzekļi vai tikai anonīmi profili? Atrodiet oriģinālavotu, pārbaudiet to cienījamos plašsaziņas līdzekļos un izmantojiet faktu pārbaudes pakalpojumus. faktu pārbaude Tas ievērojami samazina iespēju iekrist slazdā.
Visbeidzot, ir svarīgi piemērot veselais saprāts un kritiskā domāšanaJa video pārāk labi atbilst tam, kam vēlas ticēt konkrēta grupa, vai ja saturs ir ārkārtīgi skandalozs, bet izplatās tikai noteiktos kanālos, tas var radīt problēmas. WhatsApp ķēdesIr pienācis laiks būt aizdomīgiem, nedaudz vairāk izpētīt un noteikti nedalīties ar to vieglprātīgi.
Profesionāli rīki un metodes dziļviltojumu identificēšanai
Papildus mūsu pašu analītiskajām iespējām jau pastāv ekosistēma, kurā ir Specializēti rīki manipulāciju atklāšanaiDaži, piemēram, Microsoft Video Authenticator, Deepware Scanner vai Sensity AI, izmanto savus mākslīgā intelekta modeļus, lai meklētu smalkus modeļus, kas atklāj sintētisku saturu.
Tiesu medicīnas jomā tiek izmantotas arī metadatu analīze (tehniskā informācija par failu: uztveršanas ierīce, datums, izmantotā rediģēšanas programmatūra utt.) un saspiešanas kļūdu līmeņa analīze (ELA), kas var parādīt attēla apgabalus ar atšķirīgu kvalitātes degradāciju, kas raksturīga retušētām vai pār citām vietām ielīmētām zonām.
Citas progresīvas metodes koncentrējas uz ģeometriskas vai fizioloģiskas neatbilstībasŠīs metodes ietver: acu zīlīšu paplašināšanās mikrovariācijas, minimālas sirdsdarbības ātruma atšķirības, kas vizuāli noteiktas dažādās sejas zonās, trīsdimensiju apgaismojuma neatbilstības utt. Šīs metodes ir sarežģītas, taču kontrolētā vidē ļauj sasniegt ļoti augstus panākumu rādītājus.
Audio gadījumā algoritmi koncentrējas uz parametriem, kas cilvēka ausij nav saprotami: frekvenču spektri, skaņas augstuma un ritma mikrovariācijas, neiespējami modeļi noteiktu fonēmu artikulācijā vai frāzes beigās. Pašlaik Mašīnas labāk nekā cilvēki atšķir daudzas sintētiskās audioierakstusar nosacījumu, ka tiem ir oriģinālie atsauces ieraksti.
Neskatoties uz šiem sasniegumiem, realitāte ir tāda, ka Sacensība starp tiem, kas rada dziļviltojumus, un tiem, kas tos atklāj, turpinās.Katrs paaudzes uzlabojums prasa uzlabojumus verifikācijas metodēs, tāpēc ir svarīgi turpināt pētījumus un, pats galvenais, neaizmirstot, ka pirmā aizsardzības līnija joprojām ir labi informēti iedzīvotāji.
Dziļo viltojumu sociālā, ētiskā un juridiskā ietekme
Dziļi viltojumi rada ne tikai tehniskas problēmas; Tie tieši risina ētiskus, juridiskus un sociālus jautājumusTie ietekmē tiesības uz savu tēlu, privātumu, godu, informācijas brīvību un pat uzticēšanos iestādēm.
Viens no lielākajiem riskiem ir tas, ka tiek izmantoti kā “pierādījumi” tiesvedībā vai plašsaziņas līdzekļu procesosJa video autentiskuma pierādīšana kļūst arvien sarežģītāka, gan pamatotu apsūdzību izvirzīšana, gan aizstāvēšanās pret safabricētām apsūdzībām kļūst arvien sarežģītāka. Sejas un balss atpazīšanas sistēmas var tikt apdraudētas, ja uzbrucēji spēj tās apmānīt ar sarežģītiem dziļviltojumiem.
No ētikas viedokļa diskusija sākas par to, cik lielā mērā ir likumīgi atjaunot cilvēkus (dzīvus vai mirušus) bez viņu piekrišanas?pat šķietami cēlu vai māksliniecisku mērķu dēļ. Dažādās tiesību sistēmās sāk veidoties jēdziens "digitālā mantojuma" un tas, kas var atļaut kāda cilvēka attēla vai balss izmantošanu pēc viņa nāves.
Regulējuma jomā dažādas valstis veic pasākumus. ASV štatos, piemēram, Virdžīnijā, Kalifornijā un Teksasā, ir pieņemti īpaši likumi. saukt pie atbildības par bezatbildības pornogrāfiskiem dziļviltojumiem un aizliegt to izmantošanu vēlēšanu laikā. Ķīna ir noteikusi ļoti stingrus ierobežojumus šāda veida saturam, un Eiropas Savienība ievieš savu pirmo nozīmīgo mākslīgā intelekta likumu, kas klasificē sistēmas atbilstoši to riska līmenim un pieprasa pārredzamību sintētiskā satura izmantošanā.
Tomēr, Regulējums vienmēr atpaliek no tehnoloģijāmIzaicinājums ir atrast līdzsvaru starp pamattiesību (privātuma, goda, nediskriminācijas) aizsardzību un inovāciju neierobežošanu. Turklāt atbildības noteikšana nav vienkārša: vai atbildīga ir persona, kas izstrādā rīku, persona, kas veido video, persona, kas to augšupielādē, vai persona, kas padara to ļoti izplatītu?
Visu šo iemeslu dēļ starptautiskās organizācijas, drošības spēki un tādas struktūras kā Eiropols vai ANO uzstāj uz nepieciešamību pēc "tehnoētiskā pratība"Izglītot iedzīvotājus, īpaši jauniešus, par šo tehnoloģiju ļaunprātīgas izmantošanas riskiem, kaitīga satura izplatīšanas juridiskajām sekām un to, cik svarīgi ir rīkoties apdomīgi pirms jebkādu materiālu pārsūtīšanas vai publicēšanas.
Ko jūs varat darīt, lai pasargātu sevi no dziļviltojumiem?
Saskaroties ar tik sarežģītu problēmu, ir viegli domāt, ka individuālā līmenī maz ko var darīt, bet tā nav. Ir vairāki praktiski soļi, ko ikviens var veikt, lai mazinātu savu pakļautību un ievainojamību..
Pirmais ir aizsargājiet savu digitālo pēduIerobežojiet personīgo fotoattēlu, videoklipu un audio ierakstu apjomu, ko publicējat publiski sociālajos tīklos, īpaši publiskajos profilos. Jo vairāk materiāla ir uzbrucējam, jo vieglāk viņam ir apmācīt pārliecinošu modeli. Labs sākums ir pārskatīt savus privātuma iestatījumus un divreiz padomāt, pirms augšupielādējat kompromitējošu saturu.
Otrais ir pieņemt kritiska attieksme pret jebkuru uzmanību piesaistošu saturuVienmēr pārbaudiet avotu, sazinieties ar vairākiem plašsaziņas līdzekļiem, konsultējieties ar faktu pārbaudes platformām un, ja kaut kas šķiet aizdomīgs, neizplatiet to. Izvairīšanās no potenciālu dziļviltojumu izplatības veicināšanas ir būtisks solis, lai ierobežotu to sasniedzamību.
Profesionālajā un biznesa sfērā tas ir svarīgi stiprināt identitātes validācijas protokolusNepakļaujieties sensitīviem rīkojumiem (maksājumiem, paroles maiņai, svarīgu dokumentu nosūtīšanai), pamatojoties tikai uz telefona zvanu vai video. "Divkanālu" sistēmu ieviešana (piemēram, apstiprināšana, izmantojot citu metodi) un spēcīgas autentifikācijas izmantošana ievērojami samazina uzbrucēju manevrēšanas iespējas.
Galu galā, nekad nenāk par ļaunu... apmācīt kiberdrošības pamatus, dezinformāciju un kritisko domāšanuIzpratne par to, kā darbojas kibernoziedznieki, kā tiek veidoti mānījumi un kādi rīki mums ir to atklāšanai, mūs nostāda daudz drošākā pozīcijā pret jebkuru dziļviltojumu, kas nonāk mūsu mobilajā tālrunī.
Mākslīgā intelekta attīstība sola turpināt uzlabot dziļviltojumu kvalitāti, taču tā arī veicina labākas atklāšanas sistēmas un skaidrākus juridiskos regulējumus; šajā mainīgajā scenārijā saglabāt vēsu prātu, būt piesardzīgam pret visu pārāk perfektu un vienmēr pārbaudīt informāciju ir labākās stratēģijas, lai orientētos digitālajā vidē, kurā arvien vairāk Ne viss, kas šķiet īsts, ir īsts, bet mēs varam iemācīties tos atšķirt..