Cosa s’intende davvero con l’espressione cervello artificiale? E a che punto è l’ingegneria informatica?
Il cervello artificiale non è altro che un potente sistema computazionale in grado di simulare alcune funzioni della mente umana. Ovvero, processare più dati simultaneamente, ragionare e decidere. E con l’avvento dell’intelligenza artificiale è inevitabile che si parli sempre di più cervelli artificiali.
Da anni le big-tech lavorano per sviluppare moduli di elaborazione parallela. Ovvero dei sistemi che come il cervello possano provare a gestire simultaneamente dati che hanno a che fare con la visione, il linguaggio e il movimento, e che al contempo riescano a prendere delle decisioni.
Grazie all’intelligenza artificiale, tali sistemi possono infatti apprendere dai dati disponibili e migliorare nel tempo, proprio come una mente che accumula esperienze. Tutto ciò per poter prendere decisioni in tempo reale, senza bisogno continuo di input esterni. In questo caso si parla di simulazione di pensiero autonomo.
Tali sistemi non sono più fantascienza. La NVIDIA ha per esempio appena dato forma a un cervello artificiale in grado di essere integrato in robot umanoidi al costo di poco meno di 4.000 dollari. Il modulo sviluppato da NVIDIA si chiama Jetson Thor. Si tratta di un piccolo dispositivo, grande quanto un libro tascabile, con la potenza di calcolo spaventosa.
L’obiettivo è per dar vita a robot umanoidi e macchine autonome capaci di percepire, ragionare e agire nel mondo reale, senza dover essere controllate o supportate. Per farlo, hanno bisogno di autonomia. Cioè di un cervello.
Questo è il problema principale di tutte le macchine computazionali più complesse e dei robot umanoidi: devono essere sempre controllati e gestiti. I robot chiamati ad agire in situazioni complesse devono essere per forza connessi a un cloud e dovono essere supportati con dati. Invece, con il Jetson Thor, alimentato dalla GPU Blackwell, l’autonomia dei robot diventa un ideale realizzabile.
Con 128 GB di memoria e una capacità di elaborazione pari a 2.070 teraflops FP4, la GPU Blackwall può infatti gestire contemporaneamente modelli di linguaggio, visione e movimento. In pratica, un hardware del genere permette senza troppa fatica a un robot di vedere, ascoltare, comprendere e quindi muoversi con relativa coscienza.
La tecnologia è stata già sperimentato dalla Boston Dynamics, dall’Agility Robotics e da Amazon Robotics. Anche il famoso robot Atlas potrà ora essere potenziato con un Jetson Thor e diventare più autonomo e versatile.
Siamo dunque di fronte a una vera rivoluzione. E tutto questo, sorprendentemente, a un corto ridotto. Il modulo è già in commercio a partire da 3.499 dollari. Un prezzo che rende accessibile una tecnologia che potrebbe dare uno slancio incredibile alla robotica.
This post was published on 31 Agosto 2025 6:51
Citizen Pain è l'opera prima dello svilupatore italiano Alessandro Capriolo e ve lo vogliamo raccontare…
Google sta davvero facendo tutto ciò che è in suo poter per renderci l'esperienza di…
Una piccola e semplice poesia può mettere seriamente in crisi e far saltare tutti i…
Una nuova espansione di The Sims 4 è stata presentata: ti permetterà di scendere in…
Chi l'avrebbe mai detto che prima della fine dell'anno avremmo di nuovo parlato di TikTok…
Non finisce l'incubo di HORSES: dopo Steam, anche altre due importanti piattaforme bandiscono l'horror italiano...…