Η Google δημοσίευσε λεπτομέρειες για έναν από τους υπερυπολογιστές τεχνητής νοημοσύνης της, λέγοντας ότι είναι ταχύτερος και πιο αποτελεσματικός από τα ανταγωνιστικά συστήματα της  Nvidia.

Ενώ η Nvidia κυριαρχεί στην αγορά εκπαίδευσης και ανάπτυξης μοντέλων τεχνητής νοημοσύνης, με πάνω από το 90% της σχετικής αγοράς, η Google σχεδιάζει και αναπτύσσει τσιπ τεχνητής νοημοσύνης που ονομάζει Μονάδες Επεξεργασίας Tensor ή TPU, από το 2016.

Γιατί Google και Amazon… δυσκολεύονται να κάνουν απολύσεις στην Ευρώπη

Σημειώνεται ότι η Google έχει αναπτύξει μερικές από τις πιο σημαντικές εξελίξεις στον τομέα την τελευταία δεκαετία. Ωστόσο, αρκετοί θεωρούν ότι έχει μείνει πίσω όσον αφορά την εμπορευματοποίηση των εφευρέσεών της, και εσωτερικά, η εταιρεία αγωνίζεται να κυκλοφορήσει προϊόντα και να αποδείξει ότι δεν έχει σπαταλήσει το προβάδισμά της.

Πώς λειτουργούν τα «μοντέλα μάθησης»

Τα μοντέλα και τα προϊόντα τεχνητής νοημοσύνης όπως το Bard της Google ή το ChatGPT του OpenAI — που υποστηρίζονται από τα τσιπ A100 της Nvidia — απαιτούν πολλούς υπολογιστές και εκατοντάδες ή χιλιάδες τσιπ να συνεργάζονται για την εκπαίδευση μοντέλων, με τους υπολογιστές να λειτουργούν όλο το εικοσιτετράωρο για εβδομάδες ή μήνες.

Την Τρίτη, η Google ανακοίνωσε ότι έχει κατασκευάσει ένα σύστημα με πάνω από 4.000 TPU ενωμένα με προσαρμοσμένα στοιχεία σχεδιασμένα για να τρέχουν και να εκπαιδεύουν μοντέλα τεχνητής νοημοσύνης. Λειτουργεί από το 2020 και χρησιμοποιήθηκε για την εκπαίδευση του μοντέλου PaLM της Google, το οποίο ανταγωνίζεται το μοντέλο GPT του OpenAI, σε διάστημα 50 ημερών.

Ο υπερυπολογιστής TPU v4 της Google είναι «1,2x–1,7x πιο γρήγορος και χρησιμοποιεί 1,3x–1,9x λιγότερη ενέργεια από τον Nvidia A100», έγραψαν οι ερευνητές της Google. «Η απόδοση, η επεκτασιμότητα και η διαθεσιμότητα καθιστούν τους υπερυπολογιστές TPU v4 τα πιο χρήσιμα εργαλεία μεγάλων μοντέλων γλώσσας», συνέχισαν οι ερευνητές.

Ωστόσο, τα αποτελέσματα του TPU της Google δεν συγκρίθηκαν με το πιο πρόσφατο τσιπ τεχνητής νοημοσύνης της Nvidia το H100, επειδή είναι πιο πρόσφατο και κατασκευάστηκε με πιο προηγμένη τεχνολογία κατασκευής, είπαν οι ερευνητές της αμερικανικής εταιρείας.

Το τσιπ H100 της Nvidia

Τα αποτελέσματα και οι βαθμολογίες από δοκιμή τσιπ τεχνητής νοημοσύνης σε ολόκληρο τον κλάδο που ονομάζεται MLperf κυκλοφόρησαν την Τετάρτη και ο Διευθύνων Σύμβουλος της Nvidia, Jensen Huang, δήλωσε ότι τα αποτελέσματα για το πιο πρόσφατο τσιπ Nvidia, το H100, ήταν σημαντικά ταχύτερα από την προηγούμενη γενιά.

«Το σημερινό MLPerf 3.0 τονίζει το Hopper που προσφέρει 4 φορές περισσότερη απόδοση από το A100», έγραψε ο Huang σε ανάρτηση ιστολογίου. «Το επόμενο επίπεδο Generative AI απαιτεί νέα υποδομή τεχνητής νοημοσύνης για την εκπαίδευση μοντέλων μεγάλων γλωσσών με μεγάλη ενεργειακή απόδοση», κατέληξε.

Η εξέλιξη των τσιπ

Η σημαντική ποσότητα ισχύος του υπολογιστή που απαιτείται για την τεχνητή νοημοσύνη είναι δαπανηρή και πολλοί στον κλάδο επικεντρώνονται στην ανάπτυξη νέων τσιπ, εξαρτημάτων όπως οπτικές συνδέσεις ή τεχνικές λογισμικού που μειώνουν την απαιτούμενη ενέργεια του υπολογιστή.

Οι απαιτήσεις ισχύος της τεχνητής νοημοσύνης είναι επίσης ευεργέτημα για παρόχους cloud όπως η Google, η Microsoft και η Amazon, το οποίο μπορεί να «νοικιάζει» την επεξεργασία υπολογιστών ανά ώρα και να παρέχει πιστώσεις ή υπολογιστικό χρόνο σε νεοφυείς επιχειρήσεις για τη δημιουργία σχέσεων.

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Tεχνητή νοημοσύνη