Η Nvidia αποκάλυψε το H200, μια μονάδα επεξεργασίας γραφικών που έχει σχεδιαστεί για εκπαίδευση και ανάπτυξη μοντέλων τεχνητής νοημοσύνης που ουσιαστικά τροφοδοτούν την έκρηξη της ζήτησης για δημιουργική τεχνητής νοημοσύνης.

Η νέα GPU είναι μια αναβάθμιση έκδοση του H100, το τσιπ που χρησιμοποιείται από την OpenAI για την εκπαίδευση του πιο προηγμένου μοντέλου μεγάλης γλώσσας, GPT-4. Τα τσιπ H100 κοστίζουν μεταξύ 25.000 και 40.000 δολαρίων, σύμφωνα με εκτίμηση της επενδυτικής τράπεζας Raymond James, και χιλιάδες από αυτά, συνεργαζόμενα μεταξύ τους, απαιτούνται για τη δημιουργία των μεγαλύτερων μοντέλων σε μια διαδικασία που ονομάζεται «εκπαίδευση».

Η Microsoft λανσάρει δύο νέα μικροτσίπ για AI και Cloud

Ο ενθουσιασμός για τις GPU AI της Nvidia έχει «υπερφορτώσει» τη μετοχή της εταιρείας, η οποία έχει αυξηθεί περισσότερο από 230% μέχρι στιγμής το 2023. Η Nvidia αναμένει έσοδα περίπου 16 δισεκατομμυρίων δολαρίων για το οικονομικό της τρίτο τρίμηνο, αυξημένα κατά 170% σε σχέση με την αντίστοιχη περυσινή περίοδο.

Η βασική βελτίωση που φέρνει το H200 είναι ότι περιλαμβάνει 141 GB μνήμης «HBM3» επόμενης γενιάς που θα βοηθήσει το τσιπ να εκτελέσει «συμπεράσματα» ή να χρησιμοποιήσει ένα μεγάλο μοντέλο αφού έχει εκπαιδευτεί να δημιουργεί κείμενο, εικόνες ή προβλέψεις.

Σύμφωνα με τα όσα ανακοίνωσε η Nvidia, το H200 θα παράγει αποτέλεσμα σχεδόν δύο φορές πιο γρήγορα από το H100. Το H200, αναμένεται να κυκλοφορήσει το δεύτερο τρίμηνο του 2024.

Η Nvidia είπε ότι το H200 θα είναι συμβατό με το H100, πράγμα που σημαίνει ότι οι εταιρείες τεχνητής νοημοσύνης που ήδη εκπαιδεύονται με το προηγούμενο μοντέλο δεν θα χρειαστεί να αλλάξουν τα συστήματα διακομιστή ή το λογισμικό τους για να χρησιμοποιήσουν τη νέα έκδοση.

Η Nvidia λέει ότι θα είναι διαθέσιμο σε διαμορφώσεις διακομιστών τεσσάρων ή οκτώ GPU στα ολοκληρωμένα συστήματα HGX της εταιρείας, καθώς και σε ένα τσιπ που ονομάζεται GH200, το οποίο συνδυάζει την GPU H200 με έναν επεξεργαστή βασισμένο σε αρχιτεκτονική Arm.

Πρωτοκαθεδρία για… λίγο

Ωστόσο, το H200 μπορεί να μην κρατήσει το στέμμα του ταχύτερου τσιπ AI για πολύ. Ενώ εταιρείες όπως η Nvidia προσφέρουν πολλές διαφορετικές διαμορφώσεις των τσιπ τους, οι νέοι ημιαγωγοί συχνά κάνουν ένα μεγάλο βήμα προς τα εμπρός περίπου κάθε δύο χρόνια, όταν οι κατασκευαστές μετακινούνται σε διαφορετική αρχιτεκτονική που ξεκλειδώνει πιο σημαντικά κέρδη απόδοσης από την προσθήκη μνήμης ή άλλων μικρότερων βελτιστοποιήσεων. Τόσο το H100 όσο και το H200 βασίζονται στην αρχιτεκτονική Hopper της Nvidia.

Τον Οκτώβριο, η Nvidia ανακοίνωσε στους επενδυτές ότι θα μετακινηθεί από έναν ρυθμό αρχιτεκτονικής δύο ετών σε ένα μοτίβο κυκλοφορίας ενός έτους λόγω της υψηλής ζήτησης για τις GPU της. Σύμφωνα με τον υπάρχοντα σχεδιασμό η εταιρεία πρόκειται να ανακοινώσει και να κυκλοφορήσει το τσιπ B100, που βασίζεται στην επερχόμενη αρχιτεκτονική Blackwell, το 2024.

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Τεχνολογία
Oracle: Ενισχύει τις ικανότητές της για δημιουργική τεχνητή νοημοσύνη
Tεχνητή νοημοσύνη |

Η Oracle επιχειρεί να ενισχύσει τις ικανότητές της για δημιουργική τεχνητή νοημοσύνη

Η Oracle εισάγει δυνατότητες παραγωγικής τεχνητής νοημοσύνης στην υποδομή και τις εφαρμογές της στο cloud για να συμπληρώσει την παραδοσιακή τεχνητή νοημοσύνη που είναι ήδη ενσωματωμένη σε αυτές