Dzięki Real Tone Pixel 6 ma na celu poprawę Twoich portretów, niezależnie od odcienia Twojej skóry

Węzeł źródłowy: 1180377

To logiczne, że producenci telefonów zwracają szczególną uwagę na to, jak twarze pojawiają się na zdjęciach nowy Pixel 6, ogłoszony dzisiaj przez Google, wprowadza zestaw nowych narzędzi opartych na sztucznej inteligencji, dzięki którym ludzie mogą prezentować się lepiej niż kiedykolwiek. Dwie najważniejsze funkcje to Face Unblur, która pomaga zredukować rozmycie na poruszających się twarzach, oraz Real Tone. Ta ostatnia to magia przetwarzania końcowego oparta na sztucznej inteligencji – obsługiwana przez Nowy chip Tensor firmy Google – dążenie do tego, aby twarze o wszystkich odcieniach skóry były jak najlepiej widoczne.

Niezależnie od tego, czy robisz sobie selfie, czy też kogoś innego, zdecydowana większość zdjęć zrobionych smartfonem przedstawia ludzi. Tradycyjnie niezwykle trudno było uzyskać dobrą ekspozycję na zdjęciach, na których pojawia się wiele twarzy — zwłaszcza jeśli każda z nich ma inny odcień skóry. Nowy Pixel 6 łączy w sobie warstwę fotografii obliczeniowej, aby każda osoba pojawiająca się na zdjęciu wyglądała tak dobrze, jak to tylko możliwe. Zespół Pixel współpracował z różnorodną grupą doświadczonych twórców obrazów i fotografów, aby dostroić balans bieli, ekspozycję i algorytmy. Twierdzą, że dzięki temu zdjęcia będą odpowiednie dla każdego, niezależnie od karnacji skóry.

Google podkreśla, że ​​postrzega Real Tone jako misję i ulepszenie swoich systemów kamer, a nie ostateczne rozwiązanie wyzwań stojących przed fotografami. Firma zainwestowała znaczne zasoby, aby wszyscy ludzie – a zwłaszcza osoby kolorowe – byli lepiej reprezentowani w sposobie, w jaki kamery rejestrują ich twarze.

„Moja matka jest ciemnoskórą czarną kobietą, mój ojciec jest białym Niemcem. Przez całe życie zadawałem sobie pytanie: jak zrobić jedno zdjęcie, na którym wszyscy będą dobrze wyglądać” – powiedział Florian Koenigsberger, menedżer ds. marketingu produktów Advanced Photography w zespole Androida, w odprawie przed premierą nowych telefonów. „Nowy aparat to kolejny krok na tej drodze. Dane Google dotyczące różnorodności nie są dla świata tajemnicą i wiedzieliśmy, że na pewno mamy pewne niedociągnięcia, jeśli chodzi o zdobyte doświadczenia i kto może autentycznie o tym mówić”.

Zespół kamer współpracował z fotografami, kolorystami, autorami zdjęć, reżyserami i reżyserami, aby lepiej zrozumieć wyzwania związane z oświetleniem i uchwyceniem różnorodnych odcieni skóry – zwłaszcza osób o ciemniejszych odcieniach skóry. Zespół oparł się między innymi na doświadczeniu szerokiego spektrum profesjonalistów, w tym reżysera zdjęć Insecure Awa Berkowskafotograf Joshua Kissii operator filmowy Kirę Kelly. 

„Skoncentrowaliśmy się na przedstawieniu tego naprawdę zróżnicowanego zestawu perspektyw, nie tylko pod względem pochodzenia etnicznego i odcienia skóry, ale także różnorodności praktyk” – powiedział Koenigsberger. „Koloryści byli w rzeczywistości jednymi z najciekawszych osób, z którymi można było porozmawiać, ponieważ uważają to za naukę zachodzącą w procesie tworzenia obrazów”.

Zespół produktów Google współpracował z tymi ekspertami ds. obrazowania, aby zapewnić im aparaty i postawił przed nimi wyzwanie, aby fotografowali niezwykle wymagające sytuacje, w tym mieszane źródła światła, tylne oświetlenie, wnętrza, wiele odcieni skóry na jednym zdjęciu itp.

„Musieliśmy dowiedzieć się, gdzie sprawy się rozpadają, szczególnie w przypadku tych społeczności, i na tej podstawie możemy ustalić, jaki kierunek możemy w związku z tym obrać” – wyjaśnia Koenigsberger. „Specjaliści ds. obrazowania byli bardzo szczerzy i byli bezpośrednio w pomieszczeniu z naszymi inżynierami. Pomogłem w prowadzeniu tych rozmów i fascynujące było obserwowanie nie tylko wiedzy technicznej, ale także wiedzy kulturowej, która miała miejsce w tej przestrzeni. Mówię o popielatości, ciemniejszych odcieniach skóry, teksturach. Niuanse tonów średnich mogą się różnić.”

Proces rozpoczyna się od algorytmów wykrywania twarzy aparatu. Gdy kamera wie, że patrzy na twarz, może zacząć zastanawiać się, jak dobrze renderować obraz. Testując różne urządzenia, zespół Google stwierdził, że Pixel 6 niezmiennie radzi sobie lepiej niż produkty konkurencyjnych producentów, a nawet telefony Pixel starszej generacji.

Nie jest od razu jasne, jak ta funkcja działa w praktyce i czy dokonuje edycji globalnej (tj. stosuje ten sam filtr na całym obrazie), czy też sztuczna inteligencja edytuje poszczególne twarze w ramach swojej edycji. Mamy nadzieję, że już wkrótce przyjrzymy się bliżej temu specyficznemu aspektowi funkcjonalności aparatu, aby zobaczyć, jak działa on w praktyce.

Zespół kamery podkreśla, że ​​praca wykonana w tej przestrzeni oznacza, że ​​zbiory uczące do tworzenia algorytmów kamery są bardziej zróżnicowane 25-krotnie. Funkcja Real Tone jest podstawową częścią algorytmów kamery i nie można jej wyłączyć ani wyłączony.

Wydarzenie Google Pixel 2021 w TechCrunch

Źródło: https://techcrunch.com/2021/10/19/pixel-6-real-tone/

Znak czasu:

Więcej z Techcrunch