Gry
Inne

30.05.2023 16:00

AI w grach. Prawdziwa rewolucja w gamedevie już trwa

Dzisiaj możemy podziwiać możliwości AI w grach głównie w fanowskich modyfikacjach (głównie do Skyrima, a jakże!). Jednak już teraz demka technologiczne udowadniają, że w ciągu najbliższych 2-3 lat czeka nas rewolucja na miarę pojawienia się grafiki 3D. A może jeszcze większa? Zobacz, jakie możliwości dają developerom najnowsze modele generatywne!

Porozmawiaj z NPC o pogodzie

Zero zaskoczenia – pionierami we wdrażaniu modeli generatywnych okazali się modderzy Skyrima. Dali oni możliwość swobodnej, logicznej rozmowy z każdym NPC. Co istotne – ściśle powiązanej z sytuacją.

Dobrze obrazuje to poniższy materiał:

Wrażenie robi fakt, że można zapytać o dosłownie wszystko. A NPC odpowie. Co prawda trochę poleje wodę (jak to ChatGPT ma w zwyczaju), ale zapewnia doznania, których nie doświadczyliśmy dotąd w żadnej innej produkcji.

Immersja jest jeszcze większa, gdy przetestujemy modyfikację w VR, tak jak zrobił to YouTuber w poniższym filmie.

Choć głos kompanki jest jeszcze dość sztuczny, kwestią czasu jest to, by nie dało się go odróżnić od prawdziwej mowy. Z pewnością uda się też przyspieszyć proces generowania odpowiedzi.

No dobra, ale powyższe modyfikacje to jedynie wierzchołek góry lodowej. Prawdziwą moc AI pokazują już teraz na targach studia developerskie.

Zanimuj postać nagraniem z telefonu

Unreal Engine 5 już teraz zaskakuje niespotykanymi dotąd możliwościami. Pokazali to niedawno przedstawiciele Ninja Theory, twórcy gry Hellblade II: Senua's Saga. Na evencie State of Unreal 2023 zaprezentowali MetaHuman – narzędzie, dzięki któremu możliwe staje się animowanie twarzy w czasie rzeczywistym.

Jak to działa? Wystarczy nagrać materiał w zadowalającej jakości telefonem. Następnie, dzięki temu, że AI potrafi analizować ruchy postaci z filmu, narzędzie na bieżąco generuje animacje, które odzwierciedlają te ruchy.

Poniżej zobaczysz, jak w 5 minut powstały szczegółowe i realistyczne animacje, które w normalnych warunkach powstawałyby tygodniami.

Takie narzędzia jak MetaHuman otwierają nowe możliwości w dziedzinie animacji i gier. Dzięki niemu możliwe staje się tworzenie animacji w czasie rzeczywistym, bez konieczności ręcznego tworzenia każdej klatki animacji.

A to nie wszystko. Co powiesz na generowanie całych interakcji z NPC?

Po co się wysilać – wygeneruj całą interakcję z NPC w czasie rzeczywistym

Kilka dni temu na targach COMPUTEX 2023 Nvidia zaprezentowała demo technologii, dzięki której wygenerowali całą interakcję z NPC na podstawie jednej grafiki i backstory postaci.

Wystarczyło wrzucić do programu sylwetkę postaci oraz krótki opis jej historii, by powstała cała, rozbudowana rozmowa, wraz ze szczegółowymi modelami NPC i otoczenia.

Prezentacja rozpoczyna się od 27 minuty:

Gracz poruszał się swobodnie po lokacji i rozpoczął komunikację głosową z NPC. I nic tutaj nie było wcześniej przygotowane! Robi to ogromne wrażenie, choć trzeba przyznać, że nie jest to dialog na poziomie Cyberpunka 2077. Za to sprawdzi się doskonale jako inspiracja lub do szybkiego generowania aktywności pobocznych.

Mało? Stwórz całą lokację 1 kliknięciem!

Unreal Engine w wersji 5.2 skrywa jeszcze więcej możliwości. Na State of Unreal 2023 pokazano coś, co może całkowicie odmienić przyszłość branży game developmentu. Mowa o możliwości generowania w czasie rzeczywistym niezwykle szczegółowych elementów otoczenia lub nawet całej mapy.

Wydaje się to nierealne. A jednak! Twórcy narzędzia pokazali, że już teraz jest to całkowicie możliwe, a efekty mogą być zdumiewające. Zresztą – sprawdź to sam na poniższym materiale (od 3:13):

Efekt jest piorunujący. Wybrane assety automatycznie dopasowują się do otoczenia, dzięki czemu cała plansza jest spójna. Aż trudno sobie wyobrazić, ile takie narzędzia mogą oszczędzić czasu i pieniędzy.

Zobacz także: Demo The Invincible – Lem powiedziałby TAK! tej adaptacji

AI zabierze pracę twórcom gier?

Biorąc pod uwagę, ile już teraz AI jest w stanie samodzielnie wygenerować, pojawiają się obawy o przyszłość. Jednak uspokajam – modele generatywne będą takim narzędziem jak każde inne. I na ten moment mimo wszystko potrzebna jest ludzka inicjatywa, by cokolwiek powstało.

AI usprawni za to pracę w kilku kluczowych obszarach:

  • praca koncepcyjna i planowanie – możliwość wygenerowania w locie grafik koncepcyjnych, assetów, modeli 3D czy nawet całych map w określonej stylistyce znacznie usprawni pracę concept artystów. Nie trzeba już będzie poświęcać czasu na szkice i pierwsze rysunki koncepcyjne. AI zrobi to za nich. A twórcy będą mogli się tym zainspirować i na tej podstawie stworzyć coś naprawdę unikalnego!

  • Tworzenie aktywności pobocznych – na ten moment to, co potrafi AI, nie dorówna efektom pracy specjalistów z branży. Może ich jednak zdecydowanie odciążyć. Już nie trzeba będzie sztabu ludzi do pisania sztampowych tekstów-fillerów dla postaci pobocznych. Zmniejszy się też liczba specjalistów koniecznych do wypełniania mniej istotnych obszarów gry treścią. To zrobi AI. A twórcy w tym czasie będą mogli wykazać się kreatywnością przy głównym wątku w grze.

  • Przyspieszenie produkcji – gry AAA powstają zazwyczaj dłużej niż 3 lata. Do tego rozrastają się w niepokojącym dla twórców tempie. AI usprawni tworzenie wszelkiego rodzaju treści, więc i gry powinny wychodzić szybciej. Przyda się to szczególnie mniejszym studiom, które nie mogą sobie pozwolić na zatrudnianie setek specjalistów.

Z pewnością modele generatywne zrewolucjonizują branżę gier. Pozostaje tylko czekać na pierwsze gry AAA tworzone z ich pomocą!

Zobacz także: KOTOR Remake anulowany? Insider nie pozostawia złudzeń