CES handler alltid om å diskutere hva som er mulig, selv om det ikke er et produkt som vil være på markedet i år, det neste eller året etter det.

Nvidia følger i fotsporene til mange, diskuterer selvbevisste biler og verktøyene det bruker for å oppnå en slik ting under CES 2015 pressekonferanse.

Nøkkelen til å skape selvbevisste (og til slutt selvkjørende) biler, sier konsernsjef Jen-Hsun Huang, er tungt oppdaterbar programvare. Kameraer, sa han, er nøkkelen til å utvikle autonome roadsters, og for at en bil skal bli virkelig selvbevisst, må hvert kamera være koblet til en sentral supercomputer.

Heldigvis tok Nvidia seg selv til å utvikle Drive PX, en 2,3 Teraflops auto-pilot-bilcomputer utstyrt med to Tegra X1-prosessorer og 12 kamerainnganger.

Dyp læring

Drive PX introduserer to nye teknologier: Deep Neural Network Computer Vision og Surround Vision, den tidligere langt mer interessant.

Dyp læring er ikke et nytt konsept, men utviklingen er fortsatt i de nasende stadiene. Nevrale nettverk som går gjennom GPUer, anerkjenner i hovedsak hva som skjer i verden rundt dem. Ifølge Huang, dyp læring og nevrale nett hjelper en bil å gjenkjenne bilder, som gateskilt eller fotgjengere, på egenhånd.

En selvbevisst bil vil lære som det går

Dette, sier Huang, er en beregningsintensiv oppgave, så det er nødvendig med en kraftig CPU for å fullføre den. Å kunne gjenkjenne og forstå kontekst er viktig for et selvbevisst kjøretøy, sa Huang, og en bil kan lære å klassifisere objekter overtid.

Det er tydeligvis noe som trengs for å drive dette energiintensive nevrale nettverket, og det er der 256 GPU-kjernen Tegra X1 kommer inn.

Ricky Hudi, konserndirektør for elektronikkutvikling hos Audi, avslørte at bilfirmaet er Nvidias eksklusive partner for autonom kjøring.

Techradarens dekning av fremtiden for tech på CES 2015 LIVE blir gitt deg med glede av Currys PC World. Hold deg oppdatert med den nyeste teknologien hos Currys her

  • Android Auto: Den ultimate guiden til Google-navigasjon i bilen