Syvä väärennöstekniikka syynä sodan aloittamiseen

53

Uusi maailma syvällä väärennöksellä


Internet on nyt saatavilla lähes jokaisessa raudassa, on yhä vaikeampaa löytää kartalta kohtaa, jossa 4G-verkko ei olisi käytettävissä. Laajakaista Internet on ensisijaisesti HD-laatuista videota yleisillä alustoilla, jotka ovat vähitellen korvaamassa uutiset nauhat, analytiikka ja vain viihdyttävä lukeminen. Lisäksi se on työkalu miljardeihin ihmisiin vaikuttamiseen, jonka avulla voit luoda oikeanlaisen yleisen mielipiteen tällä hetkellä. Näiden väestöpelien huipulla voi olla syvä väärennöstekniikka, joka on jo osoittanut kykynsä muuttaa julkkikset, kuten Gal Gadot, Scarlett Johansson, Taylor Swift, Emma Watson ja Katy Perry pornotähdiksi. Deepfake on algoritmi, jonka avulla voit simuloida henkilön käyttäytymistä ja ulkonäköä videolla. Tekniikka on saanut nimensä syvän oppimisen ("deep learning") ja fake ("fake") yhdistelmästä. Deep fake perustuu pahamaineisiin hermoverkkoihin, jotka toimivat generatiiv-kilpailuperiaatteella (Generative Adversarial Network, GAN). Ohjelman pohjaan upotetut algoritmit kilpailevat jatkuvasti toistensa kanssa kahdessa prosessissa: esiteltyjen valokuvien opettelussa, jotta kopioitaisiin luodaan todellinen kasvojen korvaaminen ja sopimattomien vaihtoehtojen eliminoiminen, kunnes kone itse alkaa sekoittaa alkuperäistä ja kopio. Tämä monimutkainen järjestelmä on syvän väärennöstyön päätavoite - väärien valokuvien ja videosisällön luominen, jossa alkuperäisen kasvot korvataan eri kuvalla. Esimerkiksi Yhdysvaltain karismaattinen presidentti Donald Trump voi hyvinkin ottaa minkä tahansa XNUMX-luvun vastenmielisen johtajan paikan ja harjoittaa suoranaista harhaoppia massoille puhujakorokkeesta. Nyt yhdessä luoduista syvällisistä valevideoista entinen presidentti Barack Obama salli itsensä käyttää säädytöntä kieltä Donald Trumpia vastaan.


Tietysti aluksi syvät väärennetyt mainokset olivat yksinomaan viruksia - Hollywood-näyttelijöiden kasvot istutettiin tavallisiin pornovideoihin kaikkine seurauksineen. Tai esimerkiksi näyttelijä Nicolas Cage tulee yhtäkkiä päänäyttelijäksi aikamme ikonisimpien elokuvien jaksoissa. Jotkut näistä luomuksista näkyvät videolla, ja suoraan sanottuna monet niistä näyttävät hieman kömpelöiltä.






Mutta hiphop-artisti Cardi B, joka esiintyi Jimmy Fallon Tonight Showssa näyttelijä Will Smithinä, näyttää melko vakuuttavalta.


Ja tässä on alkuperäinen.


Ctrl Shift Face -kanavan käsityöt näyttävät hyvältä. Esimerkiksi Sylvester Stallone kokeili pääroolia The Terminatorissa.



IT-analyytikot sanovat jo nyt, että "väärennetystä" teknologiasta voi tulla vaarallisin digitaalitekniikka vuosikymmeniin. Tämän tekniikan lisäksi (ja siihen perustuen) Princetonin, Max Planckin ja Stanfordin yliopistojen asiantuntijat rakensivat hermorenderöintisovelluksen. Hänellä on vielä vaarallisempi tehtävä - "pakottaa" ihmisen kuva äänellään ääntämään mikä tahansa teksti millä tahansa kielellä. Tämä vaatii vain 40 minuutin äänivideon, jonka aikana hermoverkko oppii toimimaan ihmisen äänen ja ilmeiden kanssa muuntaen sen uusiksi sanallisiksi ilmauksiksi. Aluksi idea on tietysti hyvällä paikalla: Neural Renderingin pääasiallinen kuluttaja tulee olemaan elokuvastudiot, jotka haluavat lyhentää näyttelijän kuvausaikaa. Kaikille kävi kuitenkin heti selväksi, että lähitulevaisuudessa käytännöllisesti katsoen kuka tahansa käyttäjä voi luoda kannettavalla tietokoneella videoväärennöksiä, joista hiukset nousevat pystyssä. Toinen "fake"-ohjelman haara oli DeepNude-sovellus, joka pystyy melko realistisesti "riisumaan" alasti minkä tahansa naisen valokuvassa. Palvelun alkuaikoina hylättyjen pyyntöjen määrä oli niin suuri, että kehittäjät ilmoittivat oikeusjuttuja peläten palvelun sulkevan. Mutta hakkerit hakkeroivat resurssin, ja nyt kaikki voivat käyttää DeepNudea. Tietenkin he yrittävät rajoittaa pääsyä palveluun, mutta kaikki ymmärtävät, että tämä on vain väliaikainen toimenpide.

Deep fake osoittautui hyväksi työkaluksi huijareiden käsissä. Brittiläiseltä energiayhtiöltä ryöstettiin 220 XNUMX euroa, kun saksalaisen johtajan ”klooni” otti yhteyttä talousosastoon. Hän pyysi simuloidulla äänellä kiireellisesti rahansiirtoa Unkarissa olevalle tilille, eikä liikekumppaneilla ollut mitään syytä olla uskomatta tilaajaa. Tietenkin nyt on ongelmallista väärentää videoita suurissa määrissä ja laadukkaasti - valtion sääntelyviranomaiset estävät jatkuvasti resursseja fakeappista ja facefakesta, ja tietokoneiden teho ei vielä salli videon nopeaa syntetisointia. Meidän on delegoitava tämä työ maksetuille etäpalvelimille, jotka vaativat tuhansia valokuvia alkuperäisestä persoonasta ja "uhrista".

Casus belli


Deep fake teknologia voi jättää näyttelijät työttömäksi tulevaisuudessa - koko teollisuus saattaa hyvinkin siirtyä "sarjakuva"-elokuvahahmoihin, joista monet teknologia herättää kuolleista. Mutta nämä ovat pikemminkin tulevaisuuden haaveita, sillä lukuisat ammattiliitot ja alkeellinen laskentatehon puute työntävät näkymää muutaman vuoden eteenpäin. Vaikka jo nyt elokuvassa "Rogue One: A Star Wars" yhden jakson ohjaaja "heräsi henkiin" näyttelijä Peter Cushingin, joka kuoli vuonna 1994. Huhutaan, että kuuluisa James Dean saattaa esiintyä uudessa Vietnamin sotaelokuvassa. Neuroverkot auttavat jo iäkkäitä näyttelijöitä näyttämään 10-20 vuotta nuoremmalta kehyksessä - esimerkiksi Arnold Schwarzenegger ja Johnny Depp. Keskimäärin maailma tuottaa nyt vähintään 15-20 tuhatta syväfake-videota kuukaudessa, joista suurin osa ilmestyy Internetissä. Venäläiset ohjelmoijat yrittävät pysyä mukana globaaleissa trendeissä - heinäkuussa 2020 Vera Voice tarjoaa Vladimir Vysotskyn työn faneille Taganka-teatterissa laulajan digitaalisen kopion kanssa keskustelun.

Kaikki menee siihen, että video- ja valokuvatodisteet eivät enää ole tehokkaita argumentteja oikeudenkäynneissä, ja maailmanlaajuinen videovalvontajärjestelmä osoittautuu rahan haaskausta. Kukaan ei luota CCTV-kameroiden kuvamateriaaliin. Missä on takuu, että tämä ei ole syntetisoitu nukke? Poliittisessa propagandassa syvästä väärennöksestä on jo tulossa voimakas vipu, joka vaikuttaa äänestäjien mielipiteisiin. Lokakuussa 2019 Kaliforniasta tuli ensimmäinen osavaltio, joka kielsi poliittisten ehdokkaiden videoiden julkaisemisen 60 päivää tai vähemmän ennen vaaleja. Tämän lain AB 730 rikkomisesta seuraa rikosoikeudellinen vastuu. Nyt useat osavaltiot ovat liittyneet tähän aloitteeseen, ja tammikuussa 2020 Kiinassa kielletään syntetisoitujen syvän väärennettyjen valokuvien ja -videoiden julkaiseminen ilman erityistä merkkiä. Muuten, nyt yksi tehokkaimmista menetelmistä väärennöksen määrittämiseksi silmällä on luonnollisen vilkkumisen puute syntetisoiduissa merkeissä.


Stallone terminaattorina

Kuvittele nyt, kuinka syvän väärennösteknologian kehitys (ja kehitystä ei voida pysäyttää niin kauan kuin kysyntää on) muuttaa käsityksen totuudesta ja valheista. Varsinkin kun valtion virastot ottavat uutuuden käyttöön. Mikä tahansa syntetisoitu video uudesta vakoilusta, jos sitä käytetään taitavasti, voi olla ainakin tekosyy uusien pakotteiden määräämiselle tai diplomaattisen edustuston sulkemiselle. Eikä ole tarpeen tehdä kemiallisia hyökkäyksiä siviilejä vastaan, jotta voidaan sallia massiivinen ohjushyökkäys suvereenia valtiota vastaan. Kansanmurhat, soveltamisen seuraukset aseet joukkotuho, valtion ensimmäisten henkilöiden uhmakas ja loukkaava käytös - kaikki tämä syvä fake kukkakimppu oikeassa tilanteessa voi oikeuttaa uuden sotilaallisen seikkailun alkamisen äänestäjien silmissä. Ja kun aseet alkavat puhua ja raketit lentävät, kukaan ei todellakaan muista, millä paljastavalla videolla sota alkoi.

Nyt ei ole selvää vastausta, mitä tehdä tälle katastrofille. Parhaat algoritmit, jotka keskittyvät paljastamaan syvät väärennökset, voivat taata vain 97 prosentin todennäköisyyden. Tällä hetkellä jokainen edistyksellinen ohjelmoija voi osallistua Deepfake Detection Challengeen, jonka Facebook ilmoitti syyskuussa 2019. 10 miljoonan dollarin palkintopotti menee sille, joka pystyy kehittämään algoritmin, joka tunnistaa väärennetyt videot 100 %:n takuulla. Kuka tahansa arvaa, kuinka nopeasti maanalaisen syvän valekehittäjien vastaus seuraa.
Uutiskanavamme

Tilaa ja pysy ajan tasalla viimeisimmistä uutisista ja päivän tärkeimmistä tapahtumista.

53 kommentit
tiedot
Hyvä lukija, jotta voit jättää kommentteja julkaisuun, sinun on kirjaudu.
  1. +3
    17. joulukuuta 2019 klo 05
    Hmm, vaarallista tavaraa.
    1. +6
      17. joulukuuta 2019 klo 11
      Rehellistä miestä ei voi ostaa, mutta hänet voidaan häpäistä.
      Olisi mielenkiintoista nähdä vaihtoehtoja (kun näyttelijät kieltäytyivät) elokuville, esimerkiksi "Ivan Vasilyevich vaihtaa ammattia" Nikulinin ja Mironovin kanssa.
      PS "17 kevään hetkiä" Gaidai-troikan ja Krachkovskajan (radiooperaattori Kat) kanssa eivät tarjoa ...
      Todellakin, rohkea uusi maailma.
      1. 0
        20. joulukuuta 2019 klo 23
        Ja kuinka DPS on onnellinen ...
        Nyt he pelkäävät videonauhureita, eivätkä rankaise niitä kaukaa haetuilla tekosyillä.
        Mutta tulevaisuudessa kaikkia itseään vastaan ​​esitettyjä syytöksiä kutsutaan syntetisoiduksi väärennökseksi
        pelay
        1. 0
          22. joulukuuta 2019 klo 22
          Olen varma, että siellä on videotodennustekniikka.
          Jonkinlainen vahvistus siitä, että video on tallennettu tiettyyn aikaan eikä siinä ole korjauksia.
          Ehkä tämä voidaan tehdä palvelimen kautta käyttämällä salausta.
          Valtavia yhteysnopeuksia tarjoava 5G-tekniikka vain auttaa toteuttamaan tällaisia ​​asioita.
  2. +1
    17. joulukuuta 2019 klo 06
    Tämä tekniikka on vaarallinen vain siihen sopeutumisen aikana, vaikka kaikki eivät vielä tiedä siitä. Kun siitä tulee "odotettu vitsi", sen vaara on nolla.
    1. 0
      17. joulukuuta 2019 klo 07
      Lainaus Mythologilta
      sen vaara on nolla

      tämä "nolla" voi johtaa maata...
      1. +3
        17. joulukuuta 2019 klo 09
        "Nolla" ei voi johtaa määritelmän mukaan, mutta kaikki voidaan kertoa itsestään ...
    2. +1
      17. joulukuuta 2019 klo 10
      Lainaus Mythologilta
      Tämä tekniikka on vaarallinen vain siihen sopeutumisen aikana, vaikka kaikki eivät vielä tiedä siitä. Kun siitä tulee "odotettu vitsi", sen vaara on nolla.

      Voidaan olettaa, että ns. keltaisen lehdistön olemassaolon aikana kaikki oli jo mahdollisuus sopeutua siihen tai ainakin hieman sopeutua. Mutta näin ei kuitenkaan ole, ja jokaiseen tuulettimen täytökseen tulee välitön väkivaltainen reaktio omistautuneilta lukijoilta-kuluttajilta, koska ihmisen tyhmyys on loputonta.
  3. -1
    17. joulukuuta 2019 klo 06
    Elän William Gibsonin maailmassa vinkki Lopulta.
    1. +3
      17. joulukuuta 2019 klo 08
      Näin äskettäin videon. Eri ihmiset eri kissat sylissään katsovat matkapuhelimiensa näyttöjä. Sovellus asettaa kissan kasvot henkilön kasvoille. Kaikki kissat reagoivat samalla tavalla: kissa tuijottaa näyttöä hämmästyneenä, katsoo omistajaa, näkee, että hän on normaali, sitten takaisin näyttöön, eläimen kognitiivinen dissonanssi saavuttaa rajansa ja se katkeaa omistajan polvilta. kauhu, turkki on kasvatettu, jotkut kissat sihisevät... Ja videot kuuluisien poliittisten hahmojen ja näyttelijöiden kanssa ovat jo vanha aihe, internet on niitä täynnä. Taas "animoitu" prinsessa Leia uudessa "Star Warsissa", Obama pitämässä puhetta... Eikä eroa voi erottaa! Ja koska ei voi tietää, ilmeisesti on tulossa poliitikkojen aikakausi, joka kertoo kulissien takana tarvittavan, joka on saatavilla joka maassa. Eikös se ole kuitenkin aina ollut näin? Vain se oli kalliimpaa, vakuutus piti maksaa. Ja nyt se tulee halvemmaksi, koska vain ohjelmoijan on maksettava.
      1. 0
        17. joulukuuta 2019 klo 08
        Näin äskettäin videon. Eri ihmiset eri kissat sylissään katsovat matkapuhelimiensa näyttöjä.
        Katsoin myös sen, se oli hauska)
      2. 0
        18. joulukuuta 2019 klo 09
        Lainaus: masennusta
        kissa tuijottaa näyttöä hämmästyneenä, katsoo omistajaa, näkee olevansa normaali, sitten takaisin näyttöön, eläimen kognitiivinen dissonanssi saavuttaa rajansa, ja se katkeaa kauhuissaan omistajan polvilta, karva kasvaa, jotkut kissat sihisevät...

        En katsonut, mutta kuvauksen mukaan kuvittelin sen erittäin elävästi, ja jos omistaja on myös a la Obama, voit makuulla .......... naurava naurava hyvä kaveri
  4. +4
    17. joulukuuta 2019 klo 06
    Esimerkiksi UltraHD-muoto on 3840x2160=8294400 pikseliä. Onko niin vaikeaa "sirottaa" niin sanottuja "epäonnistuneet pikselit" kuvassa? "Vesileima", jotta kuvan yleinen laatu vaikuttaa mahdollisimman vähän silmälle?
    Tee tästä merkistä dynaaminen salatun avaimen mukaan. No, muuta lohkoketju- ja kvanttiteknologiaa apuna.
    1. +7
      17. joulukuuta 2019 klo 08
      Lainaus käyttäjältä g1washntwn
      Onko niin vaikeaa "sirottaa" niin sanottuja "epäonnistuneet pikselit" kuvassa? "vesileima"

      Ymmärrän, että tämä on alkuperäisen videon suojaaminen. Ja kuinka tunnistaa väärennös, jos videota ei ole suojattu?

      Algoritmi voi väärentää kuvan, mutta käyttäytymismalli, psykologinen muotokuva, on toistaiseksi epätodennäköinen. Mutta juuri tämän avaimen avulla määritämme erehtymättä Mikhanin tai Golovanin missä tahansa inkarnaatiossa. Jopa kuvaa näkemättä.
      1. +3
        17. joulukuuta 2019 klo 11
        Joo, se ei ole ollenkaan vaikeaa. He houkuttelevat psykologin, ja hän varmasti korjaa videon sinulle, jotta et edes huomaa, että hahmo on väärennös eikä todellinen. Luultavasti on jo olemassa ohjelmia, jotka analysoivat todellisen hahmon käyttäytymistä ja puhetapaa journalististen raporttien perusteella. Äänestä puhumattakaan. Tämä on 21. vuosisata, kaikki teeskentelevät sitä! Esimerkiksi kun kuuntelin Putinin puhetta, jossa hän kehotti suhtautumaan eläkeuudistukseen ymmärtäväisesti, en voinut olla tuntematta, ettei tämä ole Putin. No, ei hän, siinä kaikki!
        1. 0
          18. joulukuuta 2019 klo 06
          Lainaus: masennusta
          ..... Esimerkiksi kun kuuntelin Putinin puhetta, jossa hän kehotti suhtautumaan eläkeuudistukseen ymmärtäväisesti, en päässyt eroon tunteesta, että tämä ei ole Putin. No, ei hän, siinä kaikki!


          Tämä johtuu siitä, että tiedotusvälineet saivat näyttämään siltä, ​​että tämä hallitus päätti nostaa ikää, ja Putinilla ei ollut muuta vaihtoehtoa kuin allekirjoittaa laki. Ja sinun mogz viimeiseen asti kieltäytyi uskomasta, että hän oli "FOR" nostaa eläkeikää.
        2. 0
          19. joulukuuta 2019 klo 07
          Voit poistaa ja korvata kuvien tekijänoikeudet, mutta sen jälkeen jopa 100-prosenttisella pikselivastaavuudella "särjetty" kuva lakkaa olemasta aito kopio. Voit turvallisesti kutsua sitä väärennökseksi. Näin on muunneltujen "videotodisteiden Internetistä" kanssa. Ei varmennettua "digitaalista allekirjoitusta" - ei todisteita. Toveri Themis heilauttaa miekkansa sellaisen median yli, joka käytti tällaista "hakkeroitua" informaatiomateriaalia ja se sukeltaa päätä myöten "tämän asian" altaaseen.
      2. +1
        17. joulukuuta 2019 klo 16
        Ja kuinka tunnistaa väärennös, jos videota ei ole suojattu?

        Mikään artikkeli ei käsittele sitä. KAIKKI UNOHOIVAT VIDEOTODISTEET INTERNETISTÄ.
        Siinä ei ole mitään väärää, ongelmia tulee vasta siirtymäkaudella, kunnes se saavuttaa kansan.
      3. +1
        19. joulukuuta 2019 klo 08
        On säädytöntä vastata kysymykseen kysymyksellä, mutta se sisältää vastauksen. Onko sähköisellä asiakirjalla ilman digitaalista allekirjoitusta lainvoimaa? Ei. Sinun on myös lähestyttävä videojaksoa. Mikä tahansa pikselijoukko ilman totuuden vahvistamista on oletuksena väärennös.
    2. +3
      17. joulukuuta 2019 klo 11
      Lainaus käyttäjältä g1washntwn
      Esimerkiksi UltraHD-muoto on 3840x2160=8294400 pikseliä. Onko niin vaikeaa "sirottaa" niin sanottuja "epäonnistuneet pikselit" kuvassa? "Vesileima", jotta kuvan yleinen laatu vaikuttaa mahdollisimman vähän silmälle?
      Tee tästä merkistä dynaaminen salatun avaimen mukaan. No, muuta lohkoketju- ja kvanttiteknologiaa apuna.

      Hyvin sanottu, koira!
  5. +6
    17. joulukuuta 2019 klo 07
    Kyllä, yleisesti ottaen ei mitään erikoista. Ensinnäkin he ovat aina pystyneet manipuloimaan tietoa. Hajautuneiden guslarien eeposista lähtien. Puhuvatko he hölynpölyä Ivan Tsarevitšista? Käy tsekkaamassa! Kaukaisessa valtakunnassa. Ja valokuvien kollaaseja ja retusointia on käytetty valokuvauksen keksimisestä lähtien.
    Se on vain toinen näkökohta. Yleensä tarvitset vain saman asian - kyvyn työskennellä tiedon kanssa ...
    PiSi: ja "työttömistä näyttelijöistä" - ei ollenkaan uutinen - pitkäaikainen tosiasia, jolle koko maailma nauraa yhdessä - nyt minkä tahansa elokuvan mainoksissa sinulle kerrotaan 20 kertaa "erikoistehosteista". Ja mikä elokuva - ei. versio vanhasta, Terminator 28... Joten 80-luvulla se ryöstettiin elokuvassa "Takaisin tulevaisuuteen". Mitkä olivat "leuat" peräkkäin?
    1. 0
      19. joulukuuta 2019 klo 08
      Olen samaa mieltä. Ensimmäiset väärennökset alkoivat naarmuttaa jopa luolien seinillä - rockfantasia "Kuinka voitimme mammutin." Valehteluprosessi yksinkertaisesti muuttaa muotoja, menetelmiä ja nopeutta. Ehkä tulevaisuudessa meille ommellaan väärennettyjä muistoja ja refleksejä jo syntymävaiheessa välittömästi alakuoreen ja yksinomaan vallitsevan poliittisen tilanteen alla, tämä helpottaa suuresti paikallisten ulkoministeriöiden ja politbyroon työtä.
  6. +8
    17. joulukuuta 2019 klo 07
    Nykyään ajatus totuudesta ja valheista on käännetty ylösalaisin jopa ilman syvää väärennöstä. Siksi kauheaa on jo tapahtunut ilman tietokoneohjelmia - väärennöksiä, syytöksiä ilman todisteita, massiivisia tietoiskuja tiedotusvälineissä, suoranaisia ​​provokaatioita ... Syy aseellisen konfliktin aloittamiseen voi syntyä myös ilman tätä tietokoneohjelmaa.
    1. +3
      17. joulukuuta 2019 klo 09
      Kyllä, paljon tapahtuu yksinkertaisella sanalla ilman perusteita ja todisteita.
  7. 0
    17. joulukuuta 2019 klo 08
    "maailmanlaajuinen videovalvontajärjestelmä on rahan haaskausta" Ja se on hyvä, emme halua, että meitä tarkkaillaan jatkuvasti.
    1. +2
      17. joulukuuta 2019 klo 09
      Voit aina antaa anteeksi - rakastajatar on väärennös.
      1. -1
        17. joulukuuta 2019 klo 09
        Kyllä herra! Tai "se en ollut minä - se on väärennös", vaikka pelkään, että se ei toimi
  8. +1
    17. joulukuuta 2019 klo 08
    Hee, on niin syvää päästä fakeen sisään, että unohdat kokonaan pitkään tutun, useita tuhansia vuosia varmasti tutun tietoturvan. Todennäköisesti kaukaisia ​​esivanhempiamme kiusasi myös kysymys, että kuka tahansa voi lyödä kivelle väärennettyjä tabletteja, sitten yhtä väärennettyjä papyruksia, sitten paperilla olevia artikkeleita, laskuja, liiketoimia, no, pääsimme videoon... Mutta laita sinetti ja varmennettu allekirjoitus todistaa videolla (digitaalisen videon tapauksessa sähköis-digitaalinen, tekniikka on ollut jo pitkään tiedossa ja maksaa pari kopekkaa), ja suojaustekniikan hallinnut väärennös ei enää toimi.
  9. +2
    17. joulukuuta 2019 klo 09
    10 miljoonan dollarin palkintopotti menee sille, joka pystyy kehittämään algoritmin, joka tunnistaa väärennetyt videot 100 %:n takuulla.


    Onko tämä paljon vai vähän tällaiselle kehitykselle? tämä on koko ongelma, ratkaisu voi maksaa "kolme kopekkaa" tai biljoonia ...
    1. +1
      17. joulukuuta 2019 klo 10
      10 miljoonan dollarin palkintopotti menee sille, joka pystyy kehittämään algoritmin, joka tunnistaa väärennetyt videot 100 %:n takuulla.

      inkvisition ajoista lähtien nämä "algoritmit" ovat olleet tiedossa am
  10. +1
    17. joulukuuta 2019 klo 09
    Kaikki on oudompaa ja oudompaa.
  11. +1
    17. joulukuuta 2019 klo 09
    No, "sukupolvi P" on tullut, koska se on mennyt massoihin, niin huippupomon piirtäminen on turhaa.
  12. +1
    17. joulukuuta 2019 klo 10
    Kaikki tämä on jo johtanut siihen, että yhtäkään videota tai valokuvaa ei voida enää pitää todisteena mistään. Siinä kaikki. Jotkut työkalut on yksinkertaisesti viety pois kriminologiasta. Kaikki tämä ei toisaalta ole rohkaisevaa, mutta toisaalta ... nyt "automat" turvajärjestelmät on täytettävä jälleen ihmisillä, koska kameroiden tehtävänä on vain tiedottaa nopeasti ja todistaa jotain, tarvitaan elävä todistaja - vartija, joka näki henkilökohtaisesti.
  13. +1
    17. joulukuuta 2019 klo 10
    "Pakota" henkilön kuva äänellään ääntämään mikä tahansa teksti millä tahansa kielellä.

  14. 0
    17. joulukuuta 2019 klo 11
    Syntetisoidut videot määritetään tutkimuksen aikana, mikä tarkoittaa, että vakavaa ongelmaa ei ole
    Se on kuin tarinassa "Äiti, olen poikasi, jouduin onnettomuuteen, anna rahaa kadun kulman miehelle, tai he laittavat minut vankilaan"
    Ennen kuin he tiesivät, huijarit onnistuivat
    1. 0
      17. joulukuuta 2019 klo 14
      Syntetisoidut videot määritetään tutkimuksen aikana, mikä tarkoittaa, että vakavaa ongelmaa ei ole

      Et näytä ymmärtävän, mistä artikkelissa on kyse...
      Onko tällaisissa tapauksissa parempi olla hiljaa?
      Kysy itseltäsi, kuka määrittää väärennöksen?
      1. -1
        17. joulukuuta 2019 klo 17
        ymmärrän täydellisesti
        Et näytä
        Todisteena oikeudessa ne eivät läpäise, tarkastuksessa paljastuu asennuksen jälkiä
        Ja julkisuuteen vaikuttamisen vaikutus tiedotusvälineissä tai sisäänheittämisessä katoaa nopeasti useiden tällaisten väärennösten paljastamisen jälkeen.
        Niillä on vaikutusta vain niin kauan kuin suurin osa alitajunnasta uskoo, että videon väärentäminen on mahdotonta tai erittäin vaikeaa
        Heti kun enemmistölle tulee selväksi, että väärennös on mahdollista, tällaisen täytteen vaikutus on turha
        Ymmärrätkö siis?
        1. +1
          17. joulukuuta 2019 klo 18
          Todisteena oikeudessa ne eivät läpäise, tarkastuksessa paljastuu asennuksen jälkiä

          Et ymmärtänyt mitään. naurava
          Näkemiin.
          1. +1
            17. joulukuuta 2019 klo 18
            Se näyttää sinulta
      2. +1
        17. joulukuuta 2019 klo 18
        Lainaus käyttäjältä: bk316
        Syntetisoidut videot määritetään tutkimuksen aikana, mikä tarkoittaa, että vakavaa ongelmaa ei ole

        Et näytä ymmärtävän, mistä artikkelissa on kyse...
        Onko tällaisissa tapauksissa parempi olla hiljaa?
        Kysy itseltäsi, kuka määrittää väärennöksen?

        Samanlainen kuin ohjelmistotuote, joka loi väärennöksen, mitä muuta. Ongelma on ratkaistu. On selvää, että se on kallista. Yksi botti tuottaa väärennöksen, toinen tunnistaa sen, tietysti tietyllä varmuudella))). Ohjelmoijat haluavat myös ansaita ja välittää tekoälyn heille...
        1. +1
          17. joulukuuta 2019 klo 18
          Samanlainen kuin ohjelmistotuote, joka loi väärennöksen, mitä muuta. Z

          Itse asiassa hämmästyttävää, minä tavallaan vihjasin tästä aviorille.
          Mutta hän on itsepäinen meidän kanssamme, hän ei tarvitse sitä. Hän uskoo vakaasti Yhdysvaltojen ylivoimaisuuteen ja osoittautuu myös asiantuntemuksen suuruuteen. naurava


          Ohjelman taustalla olevat algoritmit kilpailevat jatkuvasti toistensa kanssa kahdessa prosessissa: lähetettyjen valokuvien harjoitteleminen kopioiden todellisen kasvojen korvaamisen luomiseksi ja sopimattomien vaihtoehtojen poistaminen, kunnes kunnes laite itse alkaa sekoittaa alkuperäistä ja kopiota.


          Eli jos tuote on sama, se ei paljasta väärennöstä. Tämä tarkoittaa, että tarvitaan "tehokkaampi" hermoverkko, ja tässä on roskat, ei ole olemassa hermoverkkojen metriikkaa tehopisteestä ratkaistavan ongelman yhteydessä. Solmujen, kerrosten, topologian määrä ei kerro ollenkaan ongelman ratkaisun laatua. Tuloksena on tilanne, jossa tuomioistuimessa yksi hermoverkko sanoo väärennökseksi, toinen ei ole väärennös. MUTTA NEURAALIVERKKO EI VOI SELITTYÄ MIKSI FAKE. Lisäksi mikä tahansa verkko ratkaisee tämän ongelman tietyllä todennäköisyydellä, eli se antaa vääriä positiivisia tuloksia.
          Yhteenveto: samanlainen ohjelmistotuote ei voi ratkaista tätä ongelmaa.

          Ymmärrän, että ei-ohjelmoijan on vaikea ymmärtää tätä, mutta selitin sen jo parhaani mukaan.
          Tiesitkö muuten, että kukaan ohjelmoija ei kirjoita sanaa ohjelma YKSI M:llä? naurava
          1. +1
            17. joulukuuta 2019 klo 18
            Lainaus käyttäjältä: bk316
            Ymmärrän, että ei-ohjelmoijan on vaikea ymmärtää tätä, mutta

            Muistin vitsin blondista, jolta kysyttiin, millä todennäköisyydellä hän tapaa dinosauruksen kadulla. Blondi sanoi: 50%!
            Joko tapaamme tai emme...
            Killer, mutta täysin oikein - kysymys ei ole tarpeeksi rajaehdot)))) Kuitenkin.
            1. 0
              18. joulukuuta 2019 klo 14
              Lainaus: Paksu
              viisikymmentä%! Joko tapaamme tai emme...
              Tappaja, mutta täysin oikein


              Blondi sekoitti todennäköisyyden ja mahdollisten tulosten määrän. Jos vastaus tuntuu oikealta, niin olet sinäkin.
          2. +1
            17. joulukuuta 2019 klo 19
            Ja vihjasin sinulle, että ymmärsit väärin, mitä artikkelissa sanotaan
            Missä tuomioistuimessa näit ohjelmien tai neuroverkkojen tarkastelun?
            Tutkimuksen suorittaa henkilö tarvittaessa manuaalisesti
            Ja tutkimuksen aikana liimausta ja muokkausjälkiä tulee silti esiin, olivatpa ne sitten hermoverkkojen tekemät, varsinkin jos joudut korvaamaan paitsi kasvot, myös koko ihmisen figuuri, tai vielä enemmän, luoda tyhjästä
            Tai vaihtoehtoisesti tutkimuksessa ei voida vahvistaa aitoutta, mikä ei ole ollenkaan sama asia kuin väärennöksen tunnistaminen
            Artikkelissa olevia ohjelmia ei tarvita tutkittavaksi tuomioistuimessa, tämä on väärennösten nopeaan tunnistamiseen, jotta voit tunnistaa tällaisen väärennöksen nopeasti, reaaliajassa parhaalla mahdollisella tavalla
            Ja kuinka sivusuunnassa raahasit USA:n tänne, se on yleensä mysteeri
            hi
            1. 0
              17. joulukuuta 2019 klo 21
              Lainaus Aviorilta
              Ja vihjasin sinulle, että ymmärsit väärin, mitä artikkelissa sanotaan
              Missä tuomioistuimessa näit ohjelmien tai neuroverkkojen tarkastelun?
              Tutkimuksen suorittaa henkilö tarvittaessa manuaalisesti
              Ja tutkimuksen aikana liimausta ja muokkausjälkiä tulee silti esiin, olivatpa ne sitten hermoverkkojen tekemät, varsinkin jos joudut korvaamaan paitsi kasvot, myös koko ihmisen figuuri, tai vielä enemmän, luoda tyhjästä
              Tai vaihtoehtoisesti tutkimuksessa ei voida vahvistaa aitoutta, mikä ei ole ollenkaan sama asia kuin väärennöksen tunnistaminen
              Artikkelissa olevia ohjelmia ei tarvita tutkittavaksi tuomioistuimessa, tämä on väärennösten nopeaan tunnistamiseen, jotta voit tunnistaa tällaisen väärennöksen nopeasti, reaaliajassa parhaalla mahdollisella tavalla
              Ja kuinka sivusuunnassa raahasit USA:n tänne, se on yleensä mysteeri
              hi

              Artikkelissa käsitellyt ohjelmat sopivat erittäin hyvin casus bellin luomiseen. Hyökkääjämaa tarvitsee syyn, ei todisteita. Esimerkki: Operaatio Canned, Powellin koeputki YK:ssa tai White Helmets -tapahtuman järjestäminen. Artikkelin otsikko on sellainen.
              1. 0
                17. joulukuuta 2019 klo 21
                Heti kun tällaiset ohjelmat yleistyvät, niitä ei enää oteta vakavasti.
                Samalla menestyksellä voit valmistaa tulostimelle väärennetyn kirjeen
                Se on vain, että video on luotettavampi
                Ja mitä tulee casus belliin, nytkään ei ole ongelma tehdä sellaista jäljitelmää, dinosaurukset juoksevat näytöillä, et yllätä ketään
                Se on vain helpompaa ohjelman kanssa, mutta mainitsemasi tarkoituksen kannalta sillä ei ole väliä
              2. +2
                18. joulukuuta 2019 klo 14
                Lainaus: Paksu
                Artikkelissa käsitellyt ohjelmat sopivat erittäin hyvin casus bellin luomiseen.


                Kokemus osoittaa, että casus belli luodaan ilman syvää väärennöstä. Ja syvä väärennös, heti kun ilmiö tulee tunnetuksi, osoittautuu nopeasti käytännön vitsien ja sketsien välineeksi.
            2. 0
              18. joulukuuta 2019 klo 07
              Lainaus Aviorilta
              Tutkimuksen suorittaa henkilö tarvittaessa manuaalisesti
              Ja tutkimuksen aikana liimausta ja muokkauksen jälkiä tulee silti esiin, olivatpa ne miten hermoverkot tekevät
              On hyvin naiivia ajatella, että henkilö voi tunnistaa tämän tarkasti. Tällä hetkellä väärennöksiä on vielä näkyvissä, mutta lähitulevaisuudessa ihmissilmä tuskin saa eroon kiinni. Modernien elokuvien esimerkissä voidaan nähdä, että monet kuvatuista efekteistä, ilmiöistä ja olennoista koetaan todellisina. Näin pitkälle tekniikka on kehittynyt.
              1. +1
                18. joulukuuta 2019 klo 08
                Luuletko, että aitouden tutkiminen on asiantuntijan videon katsomista?
                1. -2
                  19. joulukuuta 2019 klo 05
                  En sanonut tuota. Annoin vain esimerkin elokuvatekniikan kehityksestä. Tärkeintä on, että ei ole sataprosenttista tapaa tunnistaa väärennöstä.
    2. -2
      18. joulukuuta 2019 klo 07
      Lainaus Aviorilta
      Syntetisoidut videot määritetään tutkimuksen aikana, mikä tarkoittaa, että vakavaa ongelmaa ei ole
      Artikkelissa sanotaan myös, että ei ole olemassa algoritmeja, jotka tunnistavat syvät väärennetyt videot XNUMX %:n todennäköisyydellä. Mistä asiantuntemuksesta puhut?
      Lainaus Aviorilta
      Ennen kuin he tiesivät, huijarit onnistuivat
      Ja nyt käy ilmi, jos et tiedä. Ihmisiä johdetaan edelleen tähän johdotukseen, erityisesti eläkeläisiä.
      1. +1
        18. joulukuuta 2019 klo 08
        Algoritmit - puhumme ohjelmista, jotka voivat tunnistaa väärennöksiä automaattitilassa
        1. -2
          19. joulukuuta 2019 klo 05
          Ohjelmat ja työskentely niihin upotettujen algoritmien perusteella. Niin kutsuttu "automaattinen moodi" ei myöskään ole vain sama algoritmi, joka koostuu ohjelmoijien suunnittelemista toimintasarjoista. Tällä hetkellä ei ole olemassa vastaavia ohjelmia tai vastaavia algoritmeja.

"Oikea sektori" (kielletty Venäjällä), "Ukrainan Insurgent Army" (UPA) (kielletty Venäjällä), ISIS (kielletty Venäjällä), "Jabhat Fatah al-Sham" entinen "Jabhat al-Nusra" (kielletty Venäjällä) , Taleban (kielletty Venäjällä), Al-Qaeda (kielletty Venäjällä), Anti-Corruption Foundation (kielletty Venäjällä), Navalnyin päämaja (kielletty Venäjällä), Facebook (kielletty Venäjällä), Instagram (kielletty Venäjällä), Meta (kielletty Venäjällä), Misanthropic Division (kielletty Venäjällä), Azov (kielletty Venäjällä), Muslim Brotherhood (kielletty Venäjällä), Aum Shinrikyo (kielletty Venäjällä), AUE (kielletty Venäjällä), UNA-UNSO (kielletty v. Venäjä), Mejlis of the Crimean Tatar People (kielletty Venäjällä), Legion "Freedom of Russia" (aseellinen kokoonpano, tunnustettu terroristiksi Venäjän federaatiossa ja kielletty)

”Voittoa tavoittelemattomat järjestöt, rekisteröimättömät julkiset yhdistykset tai ulkomaisen agentin tehtäviä hoitavat yksityishenkilöt” sekä ulkomaisen agentin tehtäviä hoitavat tiedotusvälineet: ”Medusa”; "Amerikan ääni"; "todellisuudet"; "Nykyhetki"; "Radiovapaus"; Ponomarev; Savitskaja; Markelov; Kamaljagin; Apakhonchich; Makarevitš; Suutari; Gordon; Zhdanov; Medvedev; Fedorov; "Pöllö"; "Lääkäreiden liitto"; "RKK" "Levada Center"; "Muistomerkki"; "Ääni"; "Henkilö ja laki"; "Sade"; "Mediazone"; "Deutsche Welle"; QMS "Kaukasian solmu"; "Sisäpiiri"; "Uusi sanomalehti"