Business & Finance Κυριακή 1/10/2023, 08:54 ΚΟΡΑΛΙΑ ΞΕΠΑΠΑΔΕΑ
BUSINESS & FINANCE

Τεχνητή Νοημοσύνη: Τι αλλάζει στη ζωή μας – Ανταπόκριση από το Ευρωκοινοβούλιο

Ανταπόκριση από τις Βρυξέλλες και την εκδήλωση της ευρωομάδας της Ευρωπαϊκής Αριστεράς για την Τεχνητή Νοημοσύνη και τις μεγάλες προκλήσεις, ευκαιρίες και απειλές που επιφέρει. Πώς η ΑΙ επηρεάζει την κοινωνία, την οικονομία, το περιβάλλον, τη δημοκρατία.

Τεχνητή Νοημοσύνη: Τι αλλάζει στη ζωή μας – Ανταπόκριση από το Ευρωκοινοβούλιο

Η ανάπτυξη και η ευημερία της Ευρώπης συνδέονται σήμερα, περισσότερο από ποτέ, με τη χρήση ψηφιακών τεχνολογιών και τη διαχείριση δεδομένων. Η τεχνητή νοημοσύνη επιφέρει σημαντικές αλλαγές και ευκαιρίες για τον άνθρωπο, ενώ ταυτόχρονα συνεπάγεται μία σειρά από προκλήσεις και απειλές, τις οποίες οι πολίτες πρέπει και καλούνται, σε πολλές περιπτώσεις, να γνωρίζουν.

Ήδη, τον Ιούνιο του 2023, το Ευρωπαϊκό Κοινοβούλιο υιοθέτησε τη διαπραγματευτική του θέση σχετικά με την Πράξη για την Τεχνητή Νοημοσύνη, την πρώτη προσπάθεια να αντιμετωπιστεί το θέμα με ολοκληρωμένο τρόπο, σε παγκόσμιο επίπεδο, για τη ρύθμιση του τοπίου και τη διαχείριση των κινδύνων.

Το εν λόγω νομοσχέδιο αποτελεί πρόταση της Ευρωπαϊκής Επιτροπής και εντάσσεται στην προσπάθεια δημιουργίας παγκόσμιων προτύπων για μια τεχνολογία που χρησιμοποιείται παντού – από τα αυτοματοποιημένα εργοστάσια μέχρι αυτοματοποιημένες εφαρμογές, όπως το ChatGPT.

Στόχος των κανόνων είναι να καταστεί η τεχνητή νοημοσύνη ανθρωποκεντρική, αξιόπιστη και χωρίς επιβλαβείς επιπτώσεις στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα και τη δημοκρατία.

Οι κανόνες θα διασφαλίζουν ότι η τεχνολογία της τεχνητής νοημοσύνης θα αναπτύσσεται και θα χρησιμοποιείται στην Ευρώπη με απόλυτο σεβασμό προς τα δικαιώματα και τις αξίες της ΕΕ, όπως η ανθρώπινη εποπτεία και η ασφάλεια, ο σεβασμός της ιδιωτικής ζωής, η διαφάνεια, η απαγόρευση των διακρίσεων και η μέριμνα για τα κοινωνικά και περιβαλλοντικά θέματα.

«Η ΑΙ εγείρει πολλά ερωτήματα – κοινωνικά, ηθικά, οικονομικά. Αλλά δεν είναι τώρα η ώρα να πατήσουμε το ‘pause’. Αντίθετα, το θέμα είναι να δράσουμε γρήγορα και να αναλάβουμε την ευθύνη», δήλωσε τότε σχετικά ο Επίτροπος Βιομηχανίας της ΕΕ, Τιερί Μπρετόν.

Τι αλλάζει στη ζωή μας η Τεχνητή Νοημοσύνη

Δεδομένου, λοιπόν, ότι η ΑΙ δεν αποτελεί «σενάριο» ή «πρόβλεψη» για το μέλλον, αντιθέτως είναι πιο «εδώ» από ποτέ και μας αφορά κάθε μέρα και από λίγο περισσότερο, ανακύπτουν διάφορα ζητήματα, τα οποία είναι επίκαιρα και εξαιρετικά σημαντικά: Πώς η τεχνητή νοημοσύνη επηρεάζει την κοινωνία, την οικονομία και τη δημοκρατία; Ποιες είναι οι πραγματικές ευκαιρίες και προοπτικές, οι προκλήσεις, αλλά και οι απειλές της AI σήμερα και στο μέλλον, και ποιος ο πραγματικός αντίκτυπος στις ζωές μας;

Αυτά και πολλά ακόμη συζητήθηκαν στην κατάμεστη αίθουσα «Μανώλης Γλέζος» του Ευρωπαϊκού Κοινοβουλίου στις Βρυξέλλες την περασμένη Τετάρτη 27 Σεπτεμβρίου.

Στην εκδήλωση της Ευρωπαϊκής Αριστεράς με τίτλο «Τεχνητή Νοημοσύνη: Τι αλλάζει στη ζωή μας;» που πραγματοποιήθηκε με πρωτοβουλία του ευρωβουλευτή του ΣΥΡΙΖΑ, Στέλιου Κούλογλου, παρουσιάστηκαν παραδείγματα εφαρμογών τεχνητής νοημοσύνης, με τα οποία ερχόμαστε καθημερινά σε επαφή, το θετικό τους αντίκτυπο και το πώς βελτιώνουν τη ζωή μας, καθώς και οι κίνδυνοι που ελλοχεύουν σε ό,τι αφορά την ιδιωτικότητά μας, τα θεμελιώδη δικαιώματα, τη Δημοκρατία, ακόμη και το περιβάλλον.

Για τις σημαντικές αυτές αλλαγές, ευκαιρίες και απειλές, μίλησαν, κατ’ αλφαβητική σειρά: ο Αντώνιος Καλογερόπουλος από το πανεπιστήμιο VUB των Βρυξελλών και το Reuters Institute, ο Θεόδωρος Καρούνος από τον Οργανισμό Ανοιχτών Τεχνολογιών/ΕΛΛΑΚ, η Μαρία-Ωραιοζήλη Κουτσουπιά, δικηγόρος, ο Στέφανος Λουκόπουλος από το Vouliwatch, η Δέσποινα Μητροπούλου από το Διεθνές Πανεπιστήμιο Ελλάδος, ο Παναγιώτης Σκευοφύλαξ από το Ινστιτούτο ΕΝΑ, o Δημήτριος Τοκάνης, αρχιτέκτονας λογισμικού, η Cathelijne Muller από τον οργανισμό ALLAI και η Lorena Jaume Palasi από το Ethical Tech Society.

Αντώνιος Καλογερόπουλος: ΑΙ και Παραπληροφόρηση 

O Αντώνιος Καλογερόπουλος, καθηγητής και ερευνητής Πολιτικής Επικοινωνίας στο  Πανεπιστήμιο VUB των Βρυξελλών, πραγματεύτηκε το ζήτημα της παραπληροφόρησης στο διαδίκτυο και το πώς η τεχνητή νοημοσύνη μπορεί να ενισχύσει ή περιορίσει το φαινόμενο. 

Συγκεκριμένα, αναφέρθηκε αρχικά στις βασικές αιτίες που καθιστούν το αναγνωστικό κοινό ολοένα και πιο ευάλωτο σε ψευδείς ειδήσεις και θεωρίες συνομωσίας. Η έλλειψη εμπιστοσύνης στους θεσμούς, το στρες, η κοινωνική περιθωριοποίηση, καθώς και οι μη αξιόπιστες πηγές ενημέρωσης, δημιουργούν πρόσφορο έδαφος για την διασπορά ψευδών ειδήσεων στο διαδίκτυο, αλλά και τη διαιώνιση της παραπληροφόρησης. 

Εξηγώντας το πώς η ΑΙ μπορεί να συμβάλλει στην κατασκευή ψευδών ειδήσεων, κατέληξε στο ότι ο κίνδυνος διασποράς των fake news μπορεί να είναι πολύ μεγαλύτερος από αυτό που θα μπορούσε ο καθένας μας να φανταστεί ή να προβλέψει. Ωστόσο, όπως τόνισε, η ΑΙ μπορεί να αξιοποιηθεί και υπέρ του στρατοπέδου της πάταξης της παραπληροφόρησης. Ήδη το BBC υποστηρίζει ότι οι ελεγκτές περιεχομένου αναγνωρίζουν με επιτυχία περίπου το 65% των βίντεο deep fake. 

Θεόδωρος Καρούνος: ΑΙ για ένα καλύτερο δημόσιο, αλλά με όρους

Στη συνέχεια, ο Θεόδωρος Καρούνος, μέλος του ΔΣ και υπεύθυνος Συντονισμού και Λειτουργίας στον Οργανισμό Ανοιχτών Τεχνολογιών (ΕΕΛΛΑΚ), ανέπτυξε το πώς η τεχνητή νοημοσύνη επηρεάζει τη σχέση του πολίτη με τον δημόσιο τομέα. Ειδικότερα, όπως υπογράμμισε, η τεχνητή νοημοσύνη υπόσχεται σημαντική βελτίωση της αποτελεσματικότητας του δημόσιου τομέα, με αναλυτικές προβλέψεις, με προσαρμοσμένες στον πολίτη υπηρεσίες, με εύκολη ανίχνευση απόπειρας απάτης, αλλά και με αυτοματοποίηση όλων των διαδικασιών. Την ίδια στιγμή, ωστόσο, τίθενται προκλήσεις σχετικά με την ηθική, την ιδιωτικότητα, την ασφάλεια, τη διαφάνεια και την επίπτωση στο εργατικό δυναμικό. Σύμφωνα με τον κ. Καρούνο, για να επιτευχθεί βελτίωση αποδοτικότητας στο δημόσιο τομέα με τη χρήση ΑΙ, απαιτούνται σημαντικοί πόροι, σύγχρονο νομικό πλαίσιο και, φυσικά, εμπιστοσύνη του κοινού.

Παράλληλα, αναφέρθηκε στα συστήματα τεχνητής νοημοσύνης που, όπως εδώ και λίγους μήνες παρακολουθούμε, έχουν ξεκινήσει να γράφουν σενάρια για σειρές και ταινίες του Χόλιγουντ, αντικαθιστώντας μέρος του ανθρώπινου δυναμικού και μειώνοντας έτσι το κόστος παραγωγής. Σε αυτή την περίπτωση, πέραν του ότι σεναριογράφοι και ηθοποιοί μένουν σε καθεστώς ανασφάλειας για την επόμενη μέρα, από τη χρήση ΑΙ προκύπτουν επίσης και σοβαρά ζητήματα πνευματικής ιδιοκτησίας. Αυτό γιατί, τα αυτοματοποιημένα συστήματα λειτουργούν αναπροσαρμόζοντας -αν όχι «κλέβοντας»- ήδη υπάρχον στο διαδίκτυο περιεχόμενο, δημιουργώντας έτσι ιστορίες προσαρμοσμένες στις τελευταίες τάσεις του κοινού και της αγοράς.

Η μεγάλη πρόκληση, όπως ανέφερε ο κ. Καρούνος, είναι το πώς η AI μπορεί να βοηθήσει χωρίς να αντικαταστήσει την ανθρώπινη εργασία, αναφέροντας, ωστόσο, ότι τα χειρωνακτικά επαγγέλματα δεν μπορούν να αντικατασταθούν εξ’ ολοκλήρου από την AI – για την ώρα τουλάχιστον. 

Τέλος, σύμφωνα με τον ίδιο, «η τεχνητή νοημοσύνη υπόσχεται πολλά για τη βελτίωση της αποδοτικότητας και της αποτελεσματικότητας του δημόσιου τομέα, παρουσιάζει επίσης σημαντικές προκλήσεις που σχετίζονται με την ηθική, το απόρρητο, τη διαφάνεια και τον αντίκτυπο στο εργατικό δυναμικό». 

Μαρία-Ωραιοζήλη Κουτσουπιά: Τεχνητή Νοημοσύνη και Υγεία

Η δικηγόρος Μαρία-Ωραιοζήλη Κουτσουπιά έθιξε το ζήτημα της Ευρωπαϊκής Πράξης για την Τεχνητή Νοημοσύνη και πώς αυτή επηρεάζει τον τομέα της Υγείας. Ακολουθώντας τις αυστηρές προβλέψεις της Ευρωπαϊκής Πράξης, η οποία θέτει όρια από τις παραμέτρους ανάπτυξης εφαρμογών Τεχνητής Νοημοσύνης μέχρι υψηλότατα πρόστιμα για όσους παραβιάζουν τις προβλέψεις, η τεχνητή νοημοσύνη θα μπορούσε να συμβάλει στην αντιμετώπιση σημαντικών προβλημάτων, όπως την έλλειψη προσωπικού, τα χρόνια νοσήματα και την αναποτελεσματικότητα των συστημάτων υγείας. Επίσης θα μπορούσε να βοηθήσει στην προώθηση της κλινικής έρευνας, την ανάπτυξη φαρμάκων και τον σχεδιασμό άλλων κατά περίπτωση ασθενούς, ακόμη και στην διοίκηση. Ωστόσο, η χρήση εφαρμογών τεχνητής νοημοσύνης στην υγεία μπορεί να ενέχει κινδύνους για τους ασθενείς από τυχόν λάθη και κακή χρήση της εφαρμογής, λόγω έλλειψης διαφάνειας αλλά και λογοδοσίας.

Στέφανος Λουκόπουλος: ΑΙ στην υπηρεσία της Δημοκρατίας ή του κέρδους;

Ο Στέφανος Λουκόπουλος, διευθυντής και συνιδρυτής του Vouliwatch, αναφέρθηκε στο ζήτημα της υπερσυγκέντρωσης ισχύος στους τεχνολογικούς κολοσσούς και στη διαφάνεια, τονίζοντας μεταξύ άλλων ότι το μείζον πρόβλημα ξεκινά από την απουσία ενός ενιαίου πλαισίου λειτουργίας της Τεχνητής Νοημοσύνης. Όπως υπογράμμισε, το πρόβλημα δεν είναι μόνο η υπερσυγκέντρωση και εκμετάλλευση των προσωπικών μας δεδομένων από τους τεχνολογικούς κολοσσούς με σκοπό το κέρδος, αλλά και το τι σημαίνει αυτό για τις δημοκρατικές μας αξίες, ειδικά σε μια περίοδο που είμαστε ολοένα και πιο ενεργοί πολιτικά στο διαδίκτυο και οι κυβερνήσεις επαφίενται όλο και περισσότερο σε αυτοματοποιημένα συστήματα διοίκησης.

Ο κ. Λουκόπουλος σημείωσε ακόμη ότι, ενώ πράγματι οι εφαρμογές τεχνητής νοημοσύνης μπορούν να υπόσχονται μεγαλύτερο έλεγχο στην εξουσία, την ίδια στιγμή βλέπουμε πως οι δημόσιοι θεσμοί δεν είναι επαρκώς προετοιμασμένοι για την αντιμετώπιση των προκλήσεων, όπως η ισότητα, η διαφάνεια και η ιδιωτικότητα. Για τον λόγο αυτό, απαιτείται λογοδοσία και ανοιχτότητα από τις εταιρείες που παράγουν τέτοιες τεχνολογίες, ώστε να μπορεί το κοινό να είναι σε θέση να κρίνει εάν μια κυβέρνηση χρησιμοποιεί πράγματι προς όφελός του την τεχνητή νοημοσύνη.

Δέσποινα Μητροπούλου: Τα θετικά και αρνητικά της ΑΙ σε 10 τομείς

Η Δέσποινα Μητροπούλου από το Διεθνές Πανεπιστήμιο Ελλάδος, παρουσίασε τα οφέλη από την ορθή χρήση, αλλά και τις επιπτώσεις της κατάχρησης εφαρμογών τεχνητής νοημοσύνης σε δέκα διαφορετικούς τομείς.

  1. Αρχικά, στον τομέα της Υγείας, η ΑΙ μπορεί να βελτιώσει την έγκαιρη διάγνωση ή και να παρέχει κατά περίπτωση διαγνώσεις, όμως, μπορεί και να οδηγήσει σε λάθη ή και σε παραβίαση των προσωπικών δεδομένων.
  2. Στον τομέα των αυτοματοποιημένων προσωπικών βοηθών, η ΑΙ μπορεί να ενισχύσει την παραγωγικότητά μας, να αυτοματοποιήσει λειτουργίες του σπιτιού ή και να μας προσφέρει επιλογές multimedia περιεχομένου, κομμένων και ραμμένων στις προτιμήσεις μας, ωστόσο, την ίδια στιγμή, μπορεί να μας κάνει ευάλωτους σε παρακολούθηση ή χειραγώγηση.
  3. Ένα άλλο παράδειγμα στο οποίο αναφέρθηκε η κα Μητροπούλου είναι και τα συστήματα αυτόματης οδήγησης. Τα συστήματα αυτά είναι σε θέση να κάνουν τους δρόμους ασφαλέστερους μειώνοντας τα ατυχήματα, ωστόσο, όπως ανέφερε, είναι ευάλωτα σε χακάρισμα.
  4. Στον τομέα της εκπαίδευσης, παρότι η ΑΙ μπορεί να προσφέρει εκπαιδευτικά μοντέλα, σχεδιασμένα στις ανάγκες του κάθε μαθητή, μπορεί, από την άλλη, να περιορίσει την ανάπτυξη κριτικής σκέψης. 
  5. Στο μέτωπο της επιβολής του νόμου, η τεχνητή νοημοσύνη μπορεί να προβλέψει και να αποτρέψει ένα έγκλημα, αλλά μπορεί και να δημιουργήσει συνθήκες κατάχρησης και παρακολούθησης.
  6. Στον τομέα της εργασίας, παρότι η ΑΙ μπορεί να συνδιαμορφώσει ένα σύστημα προσλήψεων με διαφάνεια, δικαιοσύνη και ισότητα μεταξύ των φύλων, μπορεί, από την άλλη, να οδηγήσει σε διακρίσεις.
  7. Ενώ μπορεί να βελτιστοποιήσει την αγροτική παραγωγή, μπορεί και να επιφέρει πλήγμα στην ποικιλότητα των καλλιεργειών. 
  8. Παράλληλα, η τεχνητή νοημοσύνη μπορεί να βοηθήσει στην πρόβλεψη των τάσεων των αγορών, όμως χωρίς βεβαιότητα. 
  9. Ακόμη, μπορεί να συμβάλλει στην πρόβλεψη φυσικών καταστροφών και κατ’ επέκταση στις ανάγκες για συστήματα αντιμετώπισής τους, αλλά και να διαμορφώσει μονοπώλιο δεδομένων.
  10. Τέλος, με την ίδια ευκολία που μπορεί να προστατέψει από τα fake news στο online περιβάλλον, μπορεί επίσης να συμβάλλει στη διάδοσή τους ή και να χρησιμοποιηθεί για τη χειραγώγηση εκλογικών αποτελεσμάτων, κάτι που αποτελεί πλήγμα για τη Δημοκρατία.

Παναγιώτης Σκευοφύλαξ: Πολιτική και Τεχνητή Νοημοσύνη

Ο Παναγιώτης Σκευοφύλαξ, Γενικός Διευθυντής στο Ινστιτούτο Εναλλακτικών Πολιτικών (ΕΝΑ), εστίασε στη σχέση της τεχνητής νοημοσύνης με την πολιτική αλλά και στο πώς η πρώτη επιδρά στη δεύτερη. Όπως δήλωσε, αν οι τεχνικές του πολιτικού μάρκετινγκ αναδείχθηκαν πριν από δεκαετίες χάρη στις τεχνολογικές καινοτομίες εκείνης της εποχής και αναπροσάρμοσαν τον τρόπο «επικοινωνίας» της πολιτικής, τα social media την προηγούμενη δεκαετία αναμόρφωσαν την ίδια την πολιτική διαδικασία, σχηματίζοντας ένα «εικονικό» ψηφιακό σύμπαν πολιτικής επιρροής, το οποίο εν τέλει καταλήγει σε πραγματική πολιτική επιρροή.

Ο κ. Σκευοφύλαξ παρατήρησε ακόμη ότι, ενώ υπάρχει ανοιχτή συζήτηση για το αν η τεχνητή νοημοσύνη εκδημοκρατίζει την πολιτική ή την πολιτική χειραγώγηση, είναι σίγουρο ότι επιτρέπει πλέον στους διαμορφωτές πολιτικού λόγου να διαμορφώνουν μηνύματα με πολύ πιο επικεντρωμένη στόχευση σε πολύ λιγότερο χρόνο και με λιγότερη σπατάλη πόρων. Σε κάθε περίπτωση, η τεχνητή νοημοσύνη θα μπορούσε κάλλιστα να έχει θετικό αντίκτυπο στην πολιτική, όπως και σε άλλους τομείς, ωστόσο, την ίδια στιγμή μπορεί να αποτελέσει και εργαλείο εκμετάλλευσης. Επομένως, το ποια χρήση μπορεί να γίνει εξαρτάται μεταξύ άλλων και από την κατάσταση του πολιτικού συστήματος, πράγμα που μένει να φανεί.

Δημήτρης Τοκάνης: Μπορούμε να «εκπαιδεύσουμε» την ΑΙ με δεδομένα;

Ο Δημήτρης Τοκάνης, αρχιτέκτονας λογισμικών πληροφορικών συστημάτων, ανέπτυξε το σκεπτικό του για την ανάπτυξη μια εύχρηστης διαδικτυακής πλατφόρμας πρόβλεψης καρδιαγγειακού ρίσκου, βασισμένη σε μοντέλα τεχνητής νοημοσύνης. Συγκεκριμένα, ανέλυσε τη διαδικασία δημιουργία της πλατφόρμας από τη συλλογή κλινικών δεδομένων στην ανάπτυξη, στην επεξεργασία του αλγορίθμου και στη δημιουργία της αντίστοιχης εφαρμογής. 

Επιπλέον και εν συντομία, αναφέρθηκε στις λειτουργίες του λεγόμενου «machine learning», δηλαδή τη διαδικασία κατά την οποία τα υπολογιστικά συστήματα και τα στατιστικά ευρήματα τέμνονται προωθώντας την «εκπαίδευση» του αλγορίθμου. 

Σημειώνεται ότι η «μηχανική μάθηση» (machine learning), ως υποπεδίο της επιστήμης των υπολογιστών, διερευνά τη μελέτη και την κατασκευή αλγορίθμων που μπορούν να μαθαίνουν από τα δεδομένα και να κάνουν προβλέψεις σχετικά με αυτά. Τέτοιοι αλγόριθμοι λειτουργούν κατασκευάζοντας μοντέλα από πειραματικά δεδομένα, προκειμένου να κάνουν προβλέψεις βασισμένες στα δεδομένα ή να εξάγουν αποφάσεις που εκφράζονται ως το αποτέλεσμα.

Lorena Jaume Palasi: Περιβάλλον και ΑΙ – Ποιους ευνοεί στην πράξη η Τεχνητή Νοημοσύνη;

Τέλος, σε απευθείας διαδικτυακή κλήση από τη Γερμανία, η Lorena Jaume Palasi, Founder και Γενική Διευθύντρια του The Ethical Tech Society, ανέλυσε το περιβαλλοντικό κόστος που έχει συχνά η τεχνητή νοημοσύνη, αναφέροντας το χαρακτηριστικό παράδειγμα της αύξησης χρήσης καυσίμων όταν επιχειρούμε να κάνουμε πιο αποδοτικές και γρήγορες τις μηχανές.

Συγκεκριμένα, όπως επεσήμανε η κα Palasi, εκτός από τους ορυκτούς πόρους που εξαντλούνται και τις δασικές εκτάσεις που καταστρέφονται από την εξορυκτική διαδικασία, μεγάλη κατανάλωση γίνεται επίσης και στο νερό: η κατανάλωση στα κέντρα δεδομένων στις ΗΠΑ εκτιμάται σε 660 δισεκατομμύρια λίτρα το 2020. Το κέντρο δεδομένων της NSA στη Γιούτα εκτιμάται ότι θα χρησιμοποιεί 65 MW ισχύος και θα καταναλώνει 6,4 εκατομμύρια λίτρα νερού κάθε μέρα για την παροχή και τη λειτουργία των αναγκών του κέντρου ψύξης και αποθήκευσης. Ένα prompt (φράση-«ιδέα») για την παραγωγή μιας εικόνας από εφαρμογή τεχνητής νοημοσύνης κοστίζει 1,5 λίτρα νερού. 

Η «βιώσιμη ΑΙ» δεν είναι βιώσιμη

Παράλληλα, η Διευθύντρια του The Ethical Tech Society αναφέρθηκε στην ανάγκη για πρώτες ύλες που δημιουργεί η χρήση ΑΙ. Όπως εξήγησε, οι ανάγκες σε νερό και ηλεκτρισμό για αυτοματοποιημένα συστήματα (AI), βρίσκονται σε έντονο ανταγωνισμό με τις ανάγκες στους τομείς της γεωργίας, των μεταφορών, της υγείας και της πράσινης ενέργειας, καθώς και τις ιδιωτικές ανάγκες των λαών.

Σύμφωνα με την ίδια, δεν διαθέτουμε αρκετούς πόρους για να ικανοποιηθούν όλες οι επιπλέον ανάγκες που δημιουργεί η χρήση ΑΙ, ενώ τίθεται και ζήτημα βιωσιμότητας, αφού τα αυτοματοποιημένα συστήματα καταναλώνουν μεγάλη ποσότητα πόρων, οι οποίοι είναι σημαντικοί, τόσο για την επιβίωση του ανθρώπου, όσο και του πλανήτη γενικότερα. Ως εκ τούτου, μόνο οι περιοχές και οι κοινότητες που είναι ήδη προνομιούχες αλλά και πλούσιες σε φυσικούς πόρους επωφελούνται από αυτόν τον τύπο αυτοματισμού. 

Κλείνοντας, η Lorena Jaume Palasi έθιξε και το (ακραίο) ενδεχόμενο κατάρρευσης της ίδιας της τεχνητής νοημοσύνης, σε περίπτωση που δεν υπάρξουν στο μέλλον συγκεκριμένα ελεγκτικά πλαίσια για την ΑΙ, αλλά και συνεχής ανθρώπινη παρέμβαση.

Ρεπορτάζ: Κοραλία Ξεπαπαδέα & Ιάσων Ραΐσης

Πηγή: neolaia.gr

Διαβάστε επίσης:

Ian Bremmer: Η τεχνητή νοημοσύνη θα μεταμορφώσει την γεωπολιτική τάξη πραγμάτων

Συνομιλίες ΕΕ – Κίνας για AI και διασυνοριακή ροή δεδομένων

Ακολουθήστε το Money Review στο Google News