Ĉu Ĉi tiuj Falsa Homoj Kreitaj De AI Aspektas Realaj Al Vi? - New York Times

0 32



Nun estas entreprenoj, kiuj vendas falsajn homojn. En la retejo Generated.Photos, vi povas aĉeti falsan "unikan, sentrankvilan" falsan homon kontraŭ $ 2.99, aŭ 1,000 homojn por $ 1,000. Se vi nur bezonas paron da falsaj homoj - por roluloj en videoludo, aŭ por krei retejon de via kompanio aperas pli diversaj - Vi povas ricevi iliajn fotojn senpage ĉe ThisPersonDoesNotExist.com. Ĝustigu ilian similecon laŭbezone; faru ilin maljunaj aŭ junaj aŭ la etno laŭ via elekto. Se vi volas ke via falsa persono estu vigla, kompanio nomata Rosebud.AI povas fari tion kaj eĉ povas igi ilin paroli.

Ĉi tiuj simulataj homoj komencas aperi ĉirkaŭ la interreto, uzataj kiel maskoj de veraj homoj kun malbona intenco: spionoj, kiuj ne donas alloga vizaĝo penante infiltri la spionan komunumon; dekstraj propagandistoj kiuj kaŝas sin malantaŭ falsaj profiloj, foto kaj ĉio; interrete persekutadantoj kiuj trolas siajn celojn kun amika vizaĝo.

Ni kreis nian propran AI-sistemon por kompreni kiom facile estas generi malsamajn falsajn vizaĝojn.

La sistemo AI vidas ĉiun vizaĝon kiel kompleksan matematikan figuron, gamon da valoroj ŝanĝeblaj. Elekti malsamajn valorojn - kiel tiuj, kiuj determinas la grandecon kaj formon de okuloj - povas ŝanĝi la tutan bildon.

Por aliaj kvalitoj, nia sistemo uzis alian aliron. Anstataŭ ŝanĝi valorojn, kiuj determinas specifajn partojn de la bildo, la sistemo unue generis du bildojn por establi komencajn kaj finajn punktojn por ĉiuj valoroj, kaj poste kreis bildojn inter.

La kreado de ĉi tiuj specoj de falsaj bildoj nur eblis en la lastaj jaroj danke al nova speco de artefarita inteligenteco nomata genera kontraŭa reto. Esence vi nutras komputilan programon aron da fotoj de veraj homoj. Ĝi studas ilin kaj provas elpensi proprajn fotojn de homoj, dum alia parto de la sistemo provas detekti kiuj el tiuj fotoj estas falsaj.

La irado kaj reveno igas la finan produkton ĉiam pli nedistingebla de la reala afero. La portretoj en ĉi tiu rakonto estis kreitaj de The Times per GAN-programaro publike havebla de la komputila grafika kompanio Nvidia.

Konsiderante la rapidon de plibonigo, estas facile imagi ne tre malproksiman estontecon, en kiu ni alfrontas ne nur unuopajn portretojn de falsaj homoj, sed tutajn kolektojn de ili - ĉe festo kun falsaj amikoj, kun siaj falsaj hundoj, tenante siajn falsajn bebojn. Iĝos ĉiam pli malfacile diri, kiu estas vera interrete kaj kiu estas imago de komputila imago.

"Kiam la te techniko aperis en 2014, ĝi estis malbona - ĝi aspektis la sims", Diris Camille François, esploristo pri malinformado, kies tasko estas analizi manipuladon de sociaj retoj. “Ĝi memorigas kiel rapide la teknologio povas evolui. Malkaŝado fariĝos pli malfacila kun la tempo. "

Progresoj en vizaĝfalsado ebligis parte, ĉar teknologio multe pli bone identigis ŝlosilajn vizaĝajn trajtojn. Vi povas uzi vian vizaĝon por malŝlosi vian inteligentan telefonon, aŭ diri al via foto-programaro ordigi viajn milojn da bildoj kaj montri al vi nur tiujn de via infano. Vizaĝaj rekonaj programoj estas uzataj de policoj por identigi kaj aresti krimajn suspektatojn (kaj ankaŭ de iuj aktivuloj malkaŝi la identecojn de policistoj, kiuj kovras siajn nom-etikedojn en provo resti anonima). Kompanio vokis Clearview AI skrapis la reton de miliardoj da publikaj fotoj - senĝene dividitaj interrete de ĉiutagaj uzantoj - por krei programon kapablan rekoni fremdulon el nur unu foto. La teknologio promesas superpotencojn: la kapablon organizi kaj prilabori la mondon en maniero ne antaŭe ebla.

Sed vizaĝrekonaj algoritmoj, kiel aliaj AI-sistemoj, ne estas perfektaj. Danke al suba antaŭjuĝo en la datumoj uzataj por trejni ilin, iuj el ĉi tiuj sistemoj ne taŭgas, ekzemple, rekoni homojn kolorajn. En 2015, frua bild-detekta sistemo disvolvita de Google etikedita du nigruloj kiel "goriloj", plej verŝajne ĉar la sistemo estis provizita per multaj pli da fotoj de goriloj ol de homoj kun malhela haŭto.

Cetere, fotiloj - la okuloj de vizaĝrekonaj sistemoj - estas ne tiel bona kaptante homojn kun malhela haŭto; tiu malfeliĉa normo datiĝas de la fruaj tagoj de filmevoluo, kiam fotoj estis kalibritaj plej bone montri la vizaĝoj de helhaŭtaj homoj. La konsekvencoj povas esti severaj. En januaro, nigra viro en Detrojto nomita Robert Williams estis arestita pro krimo, kiun li ne faris pro malĝusta vizaĝrekona matĉo.

Artefarita inteligenteco povas plifaciligi niajn vivojn, sed finfine ĝi estas tiel misa kiel ni, ĉar ni estas malantaŭ ĉio. Homoj elektas kiel estas kreitaj IA-sistemoj kaj al kiaj datumoj ili estas elmetitaj. Ni elektas la voĉojn, kiuj instruas aŭdi virtualajn asistantojn, gvidante ĉi tiujn sistemojn ne kompreni homojn kun supersignoj. Ni projektas komputilan programon por antaŭdiri la kriman konduton de homo donante al ĝi datumojn pri pasintaj verdiktoj faritaj de homaj juĝistoj - kaj dum la procezo. bakante en la antaŭjuĝoj de tiuj juĝistoj. Ni etikedas la bildojn, kiuj trejnas komputilojn por vidi; ili tiam asocias okulvitroj kun "dweebs" aŭ "nerdoj."

Vi povas vidi iujn el la eraroj kaj ŝablonoj, kiujn ni trovis, ke nia AI-sistemo ripetis kiam ĝi elvokis falsajn vizaĝojn.


Homoj eraras, kompreneble: Ni preteratentas aŭ glazuras preter la difektoj de ĉi tiuj sistemoj, tro rapide por fidi, ke komputiloj estas hiper-raciaj, objektivaj, ĉiam pravaj. Studoj montris tion, en situacioj, kie homoj kaj komputiloj devas kunlabori por fari decidon - identigi fingroj or homaj vizaĝoj - homoj konstante faris la malĝustan identigon kiam komputilo instigis ilin fari tion. En la fruaj tagoj de panelo GPS-sistemoj, ŝoforoj fame sekvis la direktojn de la aparatoj al misfunkcio, sendante aŭtojn en lagojn, de klifoj kaj en arbojn.

Ĉu ĉi tio estas humileco aŭ hibrideco? Ĉu ni donas tro malmultan valoron al homa inteligenteco - aŭ ĉu ni taksas ĝin supoze, ke ni estas tiel inteligentaj, ke ni povas ankoraŭ krei aferojn pli inteligentajn?

La algoritmoj de Google kaj Bing ordigas la mondajn sciojn por ni. La novaĵfluo de Facebook filtras la ĝisdatigojn de niaj sociaj rondoj kaj decidas, kiuj estas sufiĉe gravaj por montri al ni. Kun memveturaj trajtoj en aŭtoj, ni estas metante nian sekurecon en la manojn (kaj okulojn) de programaro. Ni multe fidas ĉi tiujn sistemojn, sed ili povas esti tiel fuŝaj kiel ni.

Pliaj Artikoloj pri Artefarita Inteligenteco:

Trejnado de Vizaĝa Rekono pri Iuj Novaj Furaj Amikoj: Ursoj

Antikorpoj Bonaj. Maŝinfaritaj Molekuloj Pli Bonaj?

Ĉi tiuj Algoritmoj Povus Fini la Plej Mortigan Murdinton de la Mondo

Ĉi tiu artikolo aperis unue (angle) ĉe https://www.nytimes.com/interactive/2020/11/21/science/artificial-intelligence-fake-people-faces.html

Laisser un Commentaire

Via retpoŝta adreso ne estos publikigita.