I spillverdenen har det vært et nylig trekk av store utgivere for å frigjøre spillene sine med 64-biters støtte. World of Warcraft, til tross for kjøring i 32-biters år, ble patched for 64-biters støtte. Mange har bestemt at dette er måten spillingen skulle gå videre. Men hvorfor er 64-bits støtte så viktig for visse spill? Med utgivelsen av EAs The Sims 4 med 32-bitars eneste støtte, var det noen diskusjon om hvorvidt spillet skulle ha utvidet til 64-bit, i hvert fall for maskiner som var kompatible. Hvorfor er det sånn?

Hva gjør 64-biters støtte?

For å forstå hvorfor folk ønsker støtte til 64-bit i spill og applikasjoner, må vi forstå hva "64-bit" betyr. Din CPU behandler oppgaver med en viss maksimal bitbredde. CPUen har registreringer som er faste i bestemte størrelser (8-bit, 16-bit, 32-bit og 64-bit). Det største registeret bestemmer hva som er det største nummeret som kan sendes direkte til CPU uten ekstra instruksjoner. I 32-bits prosessorer er det 2.147.483.647 eller 4.294.967.295. Det avhenger av om du bruker signerte heltall (som tillater negative verdier) eller deres usignerte (kun positive verdier) ekvivalenter.

64-bits prosessorer tillater mye, mye større tall for å passere inn i CPU-en (maksimumverdien er 18.446.744.073.709.551.615 for usignerte heltall).

Den grunnleggende ideen om at du skal kunne ta bort dette er at 64-biters CPUer tillater mye større tall når du utfører raske beregninger og henter adresser i minnet. Derfor støtter 32-bits prosessorer bare opptil 4 GB minne. Snakker om minne ...

Du får større adresserom.

Når et spill skulle begynne å skyve grensene for minnet av systemet som kjører det, ville det være et trykk for å prøve å jobbe innenfor disse begrensningene, noe som innebar at det var i noen tilfeller ikke å cache ting som tegn og objekter. La oss ta The Sims 4 for eksempel. Når spilltilstanden endres, må den laste på alle tegnene akkurat som du gjør når du først laster spillet. Det cache ikke dem (som ville gjøre lastetider mye raskere) fordi minnet er begrenset til 4 GB i sin 32-biters arkitektur. Selv om den kjører på en 64-biters CPU, er selve spillet skrevet på en måte som bare støtter CPUs dårligere 32-biters register.

Kort sagt, spill som har 64-biters støtte, kan cache mye større biter av dataene sine. Dette betyr at du får raskere lastetider og muligens kan nyte ting som autosave i spill som tradisjonelt er minne-sulten.

Det er potensial for beregninger med dobbel presisjon.

I 32-biters arkitekturer er håndtering av desimaltall svært besværlig. I de fleste tilfeller er de syv desimaltallene du har lov til, tilstrekkelig. Men hva om du prøver å lagre en svært høy presisjonsverdi? Spillene utvikler seg og krever i mange tilfeller mer enn syv desimalpoeng for å beregne noe (som forfallshastighet ved hvilken energi går ned, eller noe sånt). I 64-biters arkitekturer kan du tildele dobbelt-presisjon flytpunkt, slik at du kan arbeide med opptil 16 desimaler.

Ja, du kunne gjøre dette i 32-biters prosesser, men det krevde en løsning hvor verdien faktisk ville være to minnebiter fast sammen med duct tape. Dette laget prosessorer kjører gjennom flere instruksjoner bare for å samle verdiene til et riktig desimalnummer. Dette betyr at et nummer som 4.2592039521510 vil okkupere to forskjellige steder i RAM, i stedet for å være en enkelt verdi.

Grafikkort opererer på forskjellige regler.

Til tross for hele conundrum av 32-biters vs 64-bit i spill, er det en ting jeg tror du burde vite: Dette har ikke noe å gjøre med grafikk. Du ser, grafikkort har utviklet seg betydelig til å inkludere bitbredder som er mye større enn hva CPUene har (mange av dem har bitbredder opptil 256 biter!). Hva 64-biters CPU-støtte gjør for spillene dine, er at de kan lage bedre beslutningstakere som opererer med minnet mer effektivt. Grafikken vil fortsatt være den samme, men spillet blir smartere og mer intuitivt.

Hvis du føler at det er noe å legge til i denne diskusjonen, vennligst legg igjen en kommentar nedenfor!