Wideo pokazuje, jak A.I. Wygenerowana sztuka może zarówno hipnotyzować, jak i prześladować twoje marzenia

$config[ads_kvadrat] not found

Jak działa sztuczna inteligencja i dlaczego powinniśmy to wiedzieć | Michał Wójcik | TEDxTarnow

Jak działa sztuczna inteligencja i dlaczego powinniśmy to wiedzieć | Michał Wójcik | TEDxTarnow

Spisu treści:

Anonim

Wcześniej w tym miesiącu dom aukcyjny Christie sprzedał to, co mówi, pierwszy kawałek sztuki generowanej algorytmicznie, sprzedawany przez duży dom aukcyjny. Cennik - prawie pół miliona dolarów amerykańskich - wzbudził szereg pytań dotyczących pochodzenia autorstwa, rynku sztuki obsesyjnego na punkcie nowości i, co może najważniejsze: dlaczego?

A jednak wysiłki mające na celu nauczanie maszyn o sztuce, a dokładniej o obrazach, nie są raczej wyczynem reklamowym. Dzięki lepszemu wykrywaniu oszukańczych filmów i wstecznej zmianie obsady filmu informatycy mają wiele praktycznych powodów, dla których uczą maszyn, jak lepiej angażować się w świat wizualny.

Daniel Heiss jest jednym z takich entuzjastów technologii. Twórca twórczy dla ZKM Center for Art and Media był wczesnym użytkownikiem sieci neuronowej opublikowanej przez badaczy NVIDIA w kwietniu. Został stworzony, aby generować zdjęcia wyimaginowanych gwiazd po szkoleniu z tysiącami zdjęć istniejących gwiazd. Zainspirowało to Heissa do włączenia 50 000 zdjęć z fotografią gładką zebranych przez jedną z interaktywnych instalacji artystycznych ZKM, aby zobaczyć, jaką sztukę ma jego A.I. produkuje. W wywiadzie online mówi Odwrotność wyniki były lepsze niż kiedykolwiek sobie wyobrażał.

„Widziałem szalone wypaczanie obrazów jednej twarzy w trzy obrazy twarzy w dwa obrazy twarzy i tak dalej. To było o wiele lepsze niż kiedykolwiek myślałem - powiedział. „Próbowałem nawet filtrować obrazy, tak aby były używane tylko obrazy z jedną twarzą, ale podczas pracy nad próbkami wygenerowanymi z niefiltrowanego zestawu danych wyszło tak dobrze, że przestałem.”

progresywnie wyhodowany GAN (Karras i in.) trenował na ~ 80 000 obrazów pic.twitter.com/fkNjw8m2uC

- Gene Kogan (@genekogan) 3 listopada 2018 r

Film Heissa od tego czasu zdobył ponad 23 000 nagrań na Reddit. Początkowo opublikował na Twitterze materiał z powyższego zdjęcia 4 listopada, w odpowiedzi na kolejne potworne użycie algorytmu NVIDII przez programistę Gene'a Kogana. Zamiast zasilać autoportrety sieci neuronowej, Kogan używał około 80 000 obrazów.

Kogan był także zachwycony zdolnością A.I. do tworzenia ramek, które przypominały różne style, zamiast po prostu mowić wszystko.

„Byłem zaskoczony jego zdolnością do zapamiętywania tak wielu różnych estetyki bez pomieszania” - opowiada Odwrotność. „Myślę, że to efekt posiadania kilkuset milionów parametrów do zabawy”.

Jak uczymy A.I. zrobić własne zdjęcia

Zespół badawczy NVIDIA, kierowany przez Tero Karras, korzystał z generatywnej sieci kontradyktoryjnej, czyli GAN, pierwotnie opracowanej przez cenionego informatyka Iana Goodfellowa w 2014 roku. To była podstawowa technologia kryjąca się za narzędziem Google DeepDream, które tworzyło fale w terenie i online.

GAN składa się z dwóch sieci: generatora i dyskryminatora. Te programy komputerowe konkurują ze sobą miliony razy, aby udoskonalić swoje umiejętności generowania obrazów, dopóki nie będą wystarczająco dobre, aby stworzyć coś, co ostatecznie stanie się znane jako deepfakes.

Generator jest zasilany zdjęciami i zaczyna starać się naśladować je jak najlepiej. Następnie pokazuje oryginalne i wygenerowane zdjęcia dyskryminatorowi, którego zadaniem jest odróżnienie ich. Im więcej przeprowadzonych prób, tym lepiej generator syntetyzuje obrazy i im lepiej dyskryminator rozróżnia je. Powoduje to dość przekonujące - ale całkowicie fałszywe - twarze i obrazy.

Jak ta technika może pomóc artystom

A.I. już wyrobił sobie markę w świecie sztuki. Oprócz wygenerowanego komputerowo portretu, który trafił do sprzedaży w Christie’s, DeepDream tworzy trippy krajobrazy, zanim jeszcze deepfakes były czymś.

Heiss uważa, że ​​narzędzia do uczenia maszynowego, które są obecnie tworzone, są dojrzałe do wykorzystania przez artystów, ale ich użycie wymaga umiejętności technicznych. Dlatego ZKM organizuje wystawę Open Codes, aby zainspirować większą współpracę między sektorem technologicznym i kreatywnym.

„Pojawiające się obecnie narzędzia mogą być bardzo przydatnymi narzędziami dla artystów, ale trudno jest je wykorzystać artyście bez znajomości programowania i umiejętności administrowania systemem” - powiedział. „Ten związek między nauką a sztuką może prowadzić do wielkich rzeczy, ale wymaga współpracy w obu kierunkach”.

Wczesne iteracje A.I., jak GANS, są w stanie pochłonąć miliony punktów danych, aby zobaczyć wzorce, a nawet obrazy, których ludzie nie byliby w stanie wymyślić samodzielnie. Jednak ich twórcza wizja jest nadal ograniczona przez to, co ludzie decydują się na przekazanie tych algorytmów jako surowych danych.

Mając na uwadze estetykę i umiejętność kodowania, artyści używający A.I. w przyszłości mogą wykorzystać uczenie maszynowe, aby rozpocząć nową erę kreatywności lub tchnąć życie w starsze style sztuki. Ale nauczenie maszyn, w jaki sposób lepiej naśladować ludzką pomysłowość i wziąć to, co komputer wypluwa o krok dalej, zajmie wiele danych.

$config[ads_kvadrat] not found