Αυτογκόλ από Intel: Οι GPUs είναι έως 14 φορές ταχύτερες των CPUs λένε μηχανικοί της!
Καιρό τώρα, το επίκεντρο της διαμάχης μεταξύ των Intel και Nvidia είναι η απόδοση των επεξεργαστών γενικής χρήσης (CPU) και των επεξεργαστών γραφικών (GPU). Το αυτογκόλ ωστόσο που έβαλε η Intel πρόσφατα θα μείνει στην... ιστορία!
Μία ομάδα από ερευνητές της Intel παρουσίασε πρόσφατα μία εργασία στο International Symposium on Computer Architecture (ISCA) που αποδεικνύει ότι μία περίπου δύο χρόνων GPU, σαν την Geforce GTX 280 της Nvidia δεν είναι από δέκα έως χίλιες φορές ταχύτερη του οκτώ μηνών επεξεργαστή της Intel, Core i7-960 αλλά μόνο 2,5 φορές (κατά μέσο όρο περίπου) και έως 14 φορές ταχύτερη!
Οι ερευνητές της Intel μάλιστα παραδέχτηκαν ότι έκαναν το καλύτερο δυνατό για να βελτιστοποιήσουν το λογισμικό που έτρεξαν τόσο για την CPU όσο και για την GPU, σε αντίθεση με διάφορα τεστ του παρελθόντος που κώδικας του λογισμικού ήταν βελτιστοποιημένος για την GPU και όχι για την CPU.
Η προσπάθεια που έκαναν να βελτιστοποιήσουν τον κώδικα και για τα δύο είδη chip απέδειξε, λέει η Intel, πως η ψαλίδα στην απόδοση κλείνει δραστικά. Η Nvidia από την άλλη, και καλά κάνει εδώ που τα λέμε, αντικρούει τους ισχυρισμούς της Intel και λέει πως η τελευταία δεν βελτιστοποίησε τον κώδικα των προγραμμάτων που έτρεξε για την GPU, παρά τα τεστ έτρεξαν out-of-the-box ενώ υποστηρίζει τους ισχυρισμούς της, ότι δηλαδή αρκετοί προγραμματιστές και εταιρείες ανάπτυξης λογισμικού έχουν δει 100X αύξηση στην απόδοση όταν έτρεξαν τις εφαρμογές τους σε GPU αντί για CPU. Επιπλέον τονίζει ότι χρησιμοποιήθηκε περασμένης γενιάς κάρτα γραφικών.
Αυτό βεβαίως είναι αλήθεια, ωστόσο σε αυτό δεν... φταίει η Intel αλλά η Nvidia που δεν παρουσίασε την "Fermi" νωρίτερα. Η καταληκτική ημερομηνία για την κατάθεση των εργασιών στο συνέδριο ήταν η 16η Νοεμβρίου και ως γνωστόν η Intel είχε νωρίτερα παρουσιάσει τον Core i7-960 ενώ η Nvidia δεν είχε παρουσιάσει την Geforce GTX 480 και την αρχιτεκτονική Fermi σε... λειτουργικό κομμάτι πυριτίου.
Επιπλέον, και σύμφωνα με τα έγγραφα που παρουσίασαν οι μηχανικοί της Intel, πραγματοποιήθηκαν βελτιστοποιήσεις στον κώδικα που έτρεξαν τόσο στην CPU όσο και στην GPU. Μπορεί να μην έκαναν και το... καλύτερο που λέει ο λόγος για την GPU, αλλά όχι ότι δεν έκαναν και τίποτα όπως ισχυρίζεται η Nvidia. Άλλο δείχνουν τα στοιχεία στην εργασία.
Αναμφισβήτητα, κανείς δεν λέει ότι το "parallel computing" που προβάλει ως πλεονέκτημα η Nvidia, ειδικά σε εφαρμογές HPC (High Performance Computing) δεν είναι η καλύτερη επιλογή. Ειδικά για την αγορά των supercomputers και τον απαιτητικών datacenters μία αύξηση στην απόδοση, έστω και κατά 2.5X, είναι ιδιαίτερα ελκυστική, έτσι και αλλιώς, για τις εταιρείες. Επίσης, η Intel με την συγκεκριμένη εργασία που κατέθεσε, δεν μπορούμε να πούμε ότι... αυτοπυροβολήθηκε κιόλας μόνη της στο πόδι, αλλά δεν είναι και το πιο ωραίο πράγμα να παραδέχεσαι πως σε ορισμένες περιπτώσεις η τεχνολογία σου έρχεται... δεύτερη.
Η Nvidia, όπως πάντα... υπερβολική. Σε ορισμένες περιπτώσεις, ναι, το "parallel computing" είναι η ιδανική λύση, αλλά δεν είναι και... λύση στα πάντα. Ειδικά όταν η καλύτερη GPU της κοστίζει δύο και τρεις φορές περισσότερο (και δεν μιλάμε για μία GPU τύπου Tesla έτσι;) από ένα πολύ καλό επεξεργαστή της Intel. Ο πόλεμος πάντως μεταξύ των δύο εταιρειών δεν λέει να κοπάσει. Έχουμε μάλιστα την εντύπωση πως βρισκόμαστε μόνο στην αρχή! Περισσότερα μπορείτε να διαβάσετε εδώ.
Είσοδος
Συζητήσεις
-
1 απάντηση, πριν 9 έτη 26 εβδομάδες
-
0 απαντήσεις
-
4 απαντήσεις, τελευταία πριν 9 έτη 30 εβδομάδες
-
9 απαντήσεις, τελευταία πριν 9 έτη 30 εβδομάδες
-
1.275 απαντήσεις, τελευταία πριν 9 έτη 31 εβδομάδες
-
333 απαντήσεις, τελευταία πριν 9 έτη 31 εβδομάδες
-
0 απαντήσεις
-
0 απαντήσεις
-
6 απαντήσεις, τελευταία πριν 9 έτη 33 εβδομάδες
-
0 απαντήσεις
Bits & Bytes
-
πριν 10 έτη 19 εβδομάδες
-
πριν 10 έτη 43 εβδομάδες
-
πριν 11 έτη 36 εβδομάδες
-
πριν 12 έτη 3 ημέρες
-
πριν 12 έτη 8 εβδομάδες
-
πριν 12 έτη 20 εβδομάδες