[ home ] [ indice ] [ b / s / x / hd / 420 ] [ aco / v / cul / yt / ck / mu / pol ]

/v/ - Videogiochi da tavolo

/v/ + /tg/
Nome
Email 
Messaggio

File
Embed
Password

  [Vai in fondo]   [Catalogo]   [Torna]   [Archivio]

File: 20240615_192038.jpg (104.76 KB, 1170x1427)

 No.147119

È vero?

 No.147120


 No.147121  SALVIA!

No, si fa rendering a risoluzioni più basse con upscale per avere performance migliori, non per avere più qualità

 No.147123

>>147119
Più o meno. Diciamo che, data l'attuale grandezza degli schermi, abbiamo superato il punto di diminishing return della risoluzione già da un pezzo. Un gioco in 4K non è visivamente "il doppio più bello" dello stesso gioco in 1440p, nonostante vi siano il doppio dei pixel e sia pertanto il doppio più pesante da renderizzare.
Paradossalmente, 1440p con un anti-aliasing decente (ovvero DLSS) può sembrare più dettagliato di 4K ma con un TAA low-quality che sfoca tutto.

Riguardo all'immagine, pure nel 2015 raramente la gente renderizzava i giochi a una risoluzione più alta di quella dello schermo. A meno che non fossero giochi del 2005, io lo facevo con League of Legends per esempio. Si chiama Supersampling e tecnicamente è la forma migliore di anti-aliasing. Anche se in realtà non è un algoritmo di AA, stai letteralmente renderizzando il gioco a una risoluzione più alta.
E lo scopo dell'upscaling non è migliorare la qualità, ma aumentare le prestazioni. Che la qualità possa aumentare usando DLSS è vero, ma è una conseguenza del fatto che stai sostituendo un pessimo TAA con un ottimo TAA.

 No.147144

In sostanza se il gioco ha al suo interno tutte le texture che sono disegnate come file BMP, PNG o JPG (o equivalenti) di 256x256 pixel al massimo (come in Doom del 1993 o Quake del 1996) allora passare da 320x200 di risoluzione nativa a un 640x480 ha un impatto visivo notevole, adesso invece che tutti i giochi hanno le texture interne che ormai superano i 1024x1024 pixel difficilmente qualcosa sopra a Ultra-HD o 4K possono renderizzare dettagli ancora di più, siamo ormai al limite possibile della renderizzazione dei dettagli
Tangente: il reparto suoni e musica, che con Doom aveva campioni a 11 kHz e Duke3D a 8 kHz, dall'anno 2000 in poi siamo arrivati con schede sonore e tutto il resto a riprodurre 44 kHz (e noi al di sopra di 20kHz non sentiamo quindi abbiamo già da molti anni il massimo possibile in qualità sonora, poi se ti comprimono i file delle musiche di Mick Gordon su Youtube non è mica colpa sua eh)

 No.147156  SALVIA!

File: anon sei un cane dio boia.jpg (174.38 KB, 1024x1024)

>>147144
>20khz di frequenza
>44khz campionatura
>Confonde le due cose
NO ANON CATTIVO.

 No.147164

>>147156
Non ho confuso niente, semplicemente ho inteso dire che sentiamo fino a 20kHz in frequenza e ho omesso di dire la parte sul campionamento audio a 44.1 kHz (o anche a 88.2 kHz o 96 kHz come succede a volte) che quindi copre lo spettro audio fino a 22.05 kHz (frequenza effettiva = frequenza campionamento diviso 2)

 No.147285

>>147121
Questa cosa dà come scusa agli sviluppatori il fatto che non debbano più ottimizzare i videogiochi come facevano una volta, sempre più giochi vengono rilasciati ingiocabili e ci rimangono per diversi mesi se non addirittura per sempre.
È la più grande truffa nella storia dei videogiochi. Bastardi gli sviluppatori di NVIDIA, che gli venisse un colpo a quello che ha avuto quest'idea.

 No.147286

File: witcher3_1920_1080.png (23.98 KB, 500x530)

>>147285
Leggo spesso 'sta frase in giro ma è un po' una cazzata. Semplicemente oggi il target per ~1080p/30FPS è PS5 (RX 6700, Ryzen 2700X), prima era PS4 (HD 7850, processore talmente di merda che un equivalente PC non esiste).

-PS4 venne lanciata nel 2013. Un anno dopo, nel 2014, con 400€ ci prendevi una GTX 970 che era il 100% (!) più veloce. Nel 2016 allo stesso prezzo la GTX 1070 era il 200% (!!) più veloce.
Esatto, tre anni dopo il lancio di PS4, con 400€ potevi comprare una scheda grafica TRE volte più veloce della console di punta.

-PS5 è stata lanciata nel 2020. Oggi, nel 2024, per 400€ Nvidia ti vende una bellissima 4060Ti… che va sì e no il 30% più forte di una PS5. E c'ha pure meno VRAM, quindi per certi versi la 4060Ti è persino peggio.
Lato AMD ci prendi una 7700XT, che è ~50% più veloce di una PS5 e ha un ammontare di VRAM decente. Decisamente meglio rispetto ad Nvidia, ma siamo molto lontani dalle offerte pazze del 2016.

Insomma, quel che è successo è che già al lancio PS4 faceva schifo e contemporaneamente l'hardware PC è entrato in un'epoca d'oro. Quindi ovviamente tutto girava da dio su PC: il computer medio era MOLTEPLICI volte più veloce della macchina target!
Al contrario PS5 al lancio era una macchina più che discreta, AMD e Sony (e Microsoft) hanno fatto un lavoro decisamente migliore. A questo si è unito il fatto che da allora il rapporto prestazioni/prezzo dell'hardware PC è rimasto quasi invariato. Anzi, al momento sotto i 400€ siamo messi peggio ora rispetto a un anno fa, pensa un po'.

___

TLDR, vaffanculo Nvidia ma non per DLSS: perché vende monnezza a prezzi folli. E vaffanculo pure AMD che è contentissima di vendere le sue schede a NvidiaPriceMinus20%.
Intel poverina ci prova ma Arc fa schifo al cazzo, sta anni indietro rispetto alle altre due.

 No.147287

>>147286
Ti darei ragione se solo non fossero utilizzate tecnologie come VRS, FSR2, PSSR, risoluzione dinamica, rendering checkerboard e altre, sia su PS4 che su PS5.
Il mero utilizzo dimostra che lo sviluppatore sta superando volontariamente i limiti hardware della console e usa queste tecnologie come ultima spiaggia per rendere giocabile un gioco anziché concentrarsi di più sull'ottimizzazione, a volte senza manco riuscirci (vedi Star Wars Jedi Survivor come esempio abbastanza recente).

 No.147290

File: fallout4_1920_1080.png (24.23 KB, 500x570)

File: starfield-2560-1440.png (56.42 KB, 560x770)

File: Terza più venduta su Amazo….png (75.91 KB, 374x418)

>>147287
Accadde la stessa cosa fra il 2013 e il 2015, con il passaggio da PS3 a PS4: improvvisamente i giochi diventarono molto meno "ottimizzati."
Prova a giocare a The Witcher 3 con una GTX 770, una scheda grafica da 400€ del 2013: con impostazioni "da console" va a circa 40 FPS, e sotto i 30 con tutto al massimo. Ripeto, scheda da 400 euri uscita qualche mese prima di PS4.

Ma fra il 2013 e il 2015 la stragrande maggioranza dei videogiochi era cross-gen, ovvero la macchina target era PS3. Una 770 non aveva alcun problema a far girare questi giochi e la gente non si lamentava.

Poi fra il 2015 e il 2016 è avvenuto il passaggio definitivo alla next-gen, la console target è diventata PS4, e la 770 ha cominciato a faticare. Chi possedeva questa scheda grafica ha iniziato a guardarsi in giro e ha scoperto che, sempre a 400 euri, poteva comprare una 1070: 2.5 volte più veloce e con 4 volte la quantità di VRAM.
E poi a 250€ c'era la 1060, le 970 di seconda mano non costavano un cazzo. In quel periodo AMD era talmente disperata che quasi le regalava le sue GPU, la RX 470 si trovava sotto i 200€. Tutte queste schede grafiche erano, come ho detto prima, MOLTEPLICI volte più veloci di una PS4.
E quindi se Fallout 4 era ottimizzato a cazzo di cane te ne sbattevi la minchia, perché non serviva chissà che budget per far girare OGNI VIDEOGIOCO SUL MERCATO ad almeno 60FPS. Magari sulla stessa macchina i giochi ben ottimizzati andavano a 120FPS, e vabbé sticazzi.

___

Ecco, questa generazione tutto ciò non è avvenuto. Nel 2020, QUATTRO anni fa, la 3080 è uscita a 700€. Oggi, QUATTRO anni dopo, la 4070 va uguale e costa… 600€. Oh, quattro anni cazzo.
Se due anni fa la 4070 fosse uscita a 400€ e oggi (tra tagli di prezzo e sconti vari) fosse possibile comprarla a ~300€… ti garantisco nessuno di lamenterebbe dell'ottimizzazione di Starfield.

Il problema è che oggi la gente spende 340€ per una 4060, pensando di star comprando qualcosa di decente. Cazzo, costa TRECENTOQUARANTA euri, sarà buona no? E invece no, sorpresa, è al livello di PS5 ma con meno VRAM (vedi: https://www.youtube.com/watch?v=ecvuRvR8Uls). E quindi se su PS5 Jedi Survivor gira a 1080p 30FPS, come vuoi che vada su 'sta ciofeca di scheda grafica: di merda ovviamente.

Gli sviluppatori stanno facendo ciò che han sempre fatto: 30 FPS su console target, che al momento è PS5. È il mercato delle schede grafiche che è rimasto congelato al 2020, ma questo non è colpa di chi fa i giochi (o per meglio dire, che al lancio Jedi Survivor andasse COSÌ male è colpa loro, ma i giochi mal ottimizzati sono sempre esistiti).
Poi ovviamente Nvidia ci marcia su e pubblica video di 'sto tipo https://youtu.be/i0iC2VQgwes?feature=shared&t=17 , ma questa è un'altra storia.

 No.147293

chiedo a voi se con queste accortezze riesci a giocare decentemente ai giochini

>risparmio energetico

https://i.imgur.com/1WicP9W.png

>disattivare indicizzazione su ssd nvme

https://i.imgur.com/00vCRlx.png

>attivare prestazioni grafiche

https://i.imgur.com/hiCo7zp.png

>prestazioni del sistema

https://i.imgur.com/0OrmgMy.png

>disattivare deframmentazione su ssd nvme

https://i.imgur.com/tmarMQL.png

>risoluzione-colori

https://i.imgur.com/clMpUYZ.png
https://i.imgur.com/PG4oDL8.png

>pannello-controllo-nvidia

https://i.imgur.com/6zKEKua.png
https://i.imgur.com/WwIS1Pa.png
https://i.imgur.com/zFuNnZW.png



[Torna in cima] [Catalogo] [Torna][Invia una Risposta]
Elimina post [ ]
[ home ] [ indice ] [ b / s / x / hd / 420 ] [ aco / v / cul / yt / ck / mu / pol ]