Szymon Miśtak, Portret PC
Celem mojej pracy była analiza tego w jaki sposób komputer postrzega człowieka. Użyłem do tego zautomatyzowanej konfiguracji, wykorzystującej kamerę internetową, komputer oraz monitor. Proces polega na przetwarzaniu obrazu z kamerki za pomocą narzędzi uczenia maszynowego i wyświetlaniu obrazu generowanego przez sztuczną inteligencję na monitorze.
Komponenty:
1. Kamera internetowa: Służy do przechwytywania obrazu człowieka. 2. Komputer: Kontroluje proces generowania obrazu przez sztuczną inteligencję. 3. Monitor: Wyświetla ostateczny obraz generowany na podstawie analizy obrazu z kamery.
Przechwytywanie obrazu:
Co kilkanaście sekund, komputer wykonuje zrzut ekranu z kamerki internetowej. Obraz z kamerki jest ładowany do narzędzia CLIP Interrogator, które wykorzystuje sztuczną inteligencję do zamiany obrazu na tekst.
Generowanie obrazu:
Wygenerowany tekst jest używany do stworzenia obrazu przy użyciu modelu Stable Diffusion. Model Stable Diffusion wykorzystuje dane tekstowe do generowania odpowiedniego obrazu.
Automatyzacja procesu:
Proces generowania obrazu jest w pełni zautomatyzowany dzięki prostemu makro. Ostateczny obraz jest wyświetlany na osobnym monitorze przy użyciu oprogramowania OBS.
Efekt:
Odbiorca obserwuje kamerkę internetową, która jest skierowana na niego oraz monitor, na którym wyświetlany jest ostateczny obraz. Każdy indywidualny obraz jest generowany na podstawie analizy obrazu z kamerki internetowej, dlatego zachowanie i aparycja przed kamerką mają wpływ na to, jaki obraz zostanie wygenerowany. Celem tego eksperymentu jest próba pokazania, jak komputer postrzega człowieka na podstawie analizy obrazu z kamery.