Γιατί η Τεχνητή Νοημοσύνη δεν θα φέρει (ακόμα) το τέλος της ανθρωπότητας -Οι πραγματικοί κίνδυνοι

10 Αυγούστου 2023 13:20

Η Τεχνητή Νοημοσύνη (Artificial Intelligence) βρίσκεται τους τελευταίους μήνες πολύ ψηλά στην επικαιρότητα. Όχι όμως πάντα για τους σωστούς λόγους.

Τα σενάρια για το πώς θα εξελιχθεί το μέλλον με την ανάπτυξη της τεχνητής νοημοσύνης είναι πολλά και, συχνά, εφιαλτικά. Ξεκινούν από τρομακτικές απώλειες θέσεων εργασίας και μια βαθιά οικονομική κρίση με βίαιες εξεγέρσεις, και φτάνουν μέχρι και στην «ανταρσία» των μηχανών κατά των δημιουργών τους που θα οδηγήσει στην εξάλειψη του ανθρώπινου είδους -στα πρότυπα των ταινιών Terminator και Matrix.

Άλλοι έχουν διαφορετική άποψη και υποστηρίζουν ότι η τεχνητή νοημοσύνη θα είναι το όχημα με το οποίο η ανθρωπότητα θα κάνει μεγάλα άλματα σε πλήθος τομέων -μεταξύ αυτών και της υγείας οδηγώντας σε θεραπείες μέχρι σήμερα ανίατων νόσων.

Τι είναι τελικά η Τεχνητή Νοημοσύνη: «Ευλογία» ή «κατάρα»;
Τι είναι όμως τελικά η τεχνητή νοημοσύνη; Πόσο μπορεί να βοηθήσει τον άνθρωπο και σε τι κινδύνους μπορεί να τον εκθέσει; Υπάρχει το ενδεχόμενο να δούμε σκηνές… «Αποκάλυψης» ή με τη σωστή χρήση της AI η ανθρωπότητα θα βρει τη νέα, δική της «Εδέμ»;

Το iefimerida.gr αναζήτησε τις απαντήσεις στον Κωνσταντίνο Βαβούση, Σύμβουλο ασφάλειας πληροφοριακών συστημάτων της Trust Information Technologies (Cybersecurity – Business Manager).

«Η τεχνητή νοημοσύνη επιτρέπει στις μηχανές να επεξεργάζονται δεδομένα, να αναγνωρίζουν μοτίβα και να χρησιμοποιούν αυτές τις γνώσεις για να λύνουν προβλήματα, να κάνουν προβλέψεις ή να αλληλοεπιδρούν με ανθρώπους» λέει ο Κωνσταντίνος Βαβούσης, προσθέτοντας ότι τη συναντούμε σε διάφορες μορφές. Όπως λέει υπάρχει η «”στενή τεχνητή νοημοσύνη” (Narrow AI) που εστιάζει σε συγκεκριμένες εργασίες όπως η αναγνώριση φωνής ή η ταξινόμηση εικόνας έως την πιο προηγμένη τεχνητή νοημοσύνη που μπορεί να μάθει και να προσαρμοστεί σε διάφορες καταστάσεις. Επίσης περιλαμβάνει τεχνολογίες όπως η μηχανική μάθηση (machine learning) και η βαθιά μάθηση (deep learning), που επιτρέπουν στις μηχανές να βελτιώνουν την απόδοσή τους με την πάροδο του χρόνου αναλύοντας μεγάλα σύνολα δεδομένων».

 Σύμφωνα με τον κ. Βαβούση, ωστόσο, « η τεχνητή νοημοσύνη μπορεί να είναι ισχυρή και ικανή σε συγκεκριμένους τομείς, όμως δεν διαθέτει την ίδια γενική νοημοσύνη ή συνείδηση με τους ανθρώπους». Πού μπορεί να φτάσουν όμως οι κίνδυνοι και τα οφέλη;

Ακολουθεί ολόκληρη η συνέντευξη του Κωνσταντίνου Βαβούση στο iefimerida.gr με θέμα τα σενάρια για την ανάπτυξη της Τεχνητής Νοημοσύνης:

Η εικόνα που έχουν οι περισσότεροι για την Τεχνητή Νοημοσύνη, πιθανότατα από σειρές επιστημονικής φαντασίας, είναι ότι πρόκειται για κάποιον «πανέξυπνο» υπερ-υπολογιστή με ανθρώπινα χαρακτηριστικά. Πώς μπορούμε να περιγράψουμε με απλό τρόπο τι είναι η ΑΙ;
Με απλά λόγια η τεχνητή νοημοσύνη είναι η ικανότητα ενός υπολογιστή ή μιας μηχανής να εκτελεί εργασίες που συνήθως απαιτούσαν ανθρώπινη νοημοσύνη. Περιλαμβάνει τη δημιουργία συστημάτων που μπορούν να κατανοήσουν, να διδαχθούν και να λάβουν αποφάσεις ή να αναλάβουν ενέργειες με βάση τις πληροφορίες που λαμβάνουν. Η τεχνητή νοημοσύνη επιτρέπει στις μηχανές να επεξεργάζονται δεδομένα, να αναγνωρίζουν μοτίβα και να χρησιμοποιούν αυτές τις γνώσεις για να λύνουν προβλήματα, να κάνουν προβλέψεις ή να αλληλοεπιδρούν με ανθρώπους. Τη συναντούμε σε διάφορες μορφές, από τη “στενή” τεχνητή νοημοσύνη (narrow AI) που εστιάζει σε συγκεκριμένες εργασίες όπως η αναγνώριση φωνής ή η ταξινόμηση εικόνας έως την πιο προηγμένη τεχνητή νοημοσύνη που μπορεί να μάθει και να προσαρμοστεί σε διάφορες καταστάσεις. Επίσης περιλαμβάνει τεχνολογίες όπως η μηχανική μάθηση (machine learning) και η βαθιά μάθηση (deep learning), που επιτρέπουν στις μηχανές να βελτιώνουν την απόδοσή τους με την πάροδο του χρόνου αναλύοντας μεγάλα σύνολα δεδομένων.

Με πιο απλά λόγια, η τεχνητή νοημοσύνη είναι σαν να δίνεις σε έναν υπολογιστή τη δυνατότητα να σκέφτεται και να παίρνει αποφάσεις όπως οι άνθρωποι, χρησιμοποιώντας αλγόριθμους και δεδομένα για να τον βοηθήσουν να μάθει και να εκτελέσει συγκεκριμένες εργασίες. Είναι σημαντικό να σημειωθεί ότι ενώ η τεχνητή νοημοσύνη μπορεί να είναι ισχυρή και ικανή σε συγκεκριμένους τομείς, δεν διαθέτει την ίδια γενική νοημοσύνη ή συνείδηση με τους ανθρώπους. Το αναφέρω αυτό για βλέπω που το πας!

 

Ποια είναι τα θετικά της ΑΙ; Σε ποιους τομείς μπορεί να βοηθήσει τον άνθρωπο; Υπάρχει κάποιο «ακραίο» παράδειγμα για το τί θα μπορούσε να κάνει;
Η τεχνητή νοημοσύνη έχει πολυάριθμες θετικές επιπτώσεις και εφαρμογές σε διάφορους τομείς. Για παράδειγμα στον τομέα της υγείας, η τεχνητή νοημοσύνη έχει τη δυνατότητα να φέρει επανάσταση βοηθώντας στη διάγνωση, την εξατομικευμένη ιατρική και μπορεί επίσης να συμβάλει στην ανακάλυψη θεραπειών και φαρμάκων. Εξειδικευμένοι αλγόριθμοι μπορούν να αναλύσουν ιατρικές εικόνες, να ανιχνεύσουν μοτίβα και να βοηθήσουν στη διάγνωση ασθενειών όπως ο καρκίνος ή οι νευρολογικές παθήσεις. Μπορεί επίσης να αναλύσει δεδομένα ασθενών για να εντοπίσει πιθανούς κινδύνους, ακόμη και να προτείνει θεραπείες.

Ένας άλλος τομέας είναι η περιβαλλοντική βιωσιμότητα όπου η τεχνητή νοημοσύνη μπορεί να βοηθήσει στη βελτιστοποίηση της κατανάλωσης ενέργειας, στη διαχείριση των πόρων πιο αποτελεσματικά και στην πρόβλεψη περιβαλλοντικών κινδύνων. Μπορεί να χρησιμοποιηθεί επίσης σε κλιματικά μοντέλα, στη γεωργία ακόμα και σε συστήματα διαχείρισης απορριμμάτων.

Αναφέρω επιπλέον και τις μεταφορές όπου η τεχνητή νοημοσύνη οδηγεί τις εξελίξεις στα αυτόνομα οχήματα, καθιστώντας τη μεταφορά ασφαλέστερη και αποτελεσματικότερη. Τα αυτοοδηγούμενα οχήματα σχεδιάζονται με σκοπό να μειώσουν τα ατυχήματα που προκαλούνται από ανθρώπινο λάθος, να βελτιστοποιήσουν τη ροή της κυκλοφορίας και να παρέχουν ουσιαστικές λύσεις σε άτομα με περιορισμένη κινητικότητα. Η λίστα φυσικά συνεχίζεται με την εκπαίδευση, τη ναυτιλία, τους προσωπικούς βοηθούς με εξειδικευμένη γνώση και γενικότερα καινοτομίες σε πτυχές από το σύνολο του επιχειρηματικού φάσματος. Ας φανταστούμε πόσο ευκολότερη θα γινόταν η ζωή μας αν μπορούσαμε να αυτοματοποιήσουμε επαναλαμβανόμενες εργασίες απελευθερώνοντας πολύτιμο χρόνο και ενέργεια για πιο σύνθετες και δημιουργικές δραστηριότητες.

Πέρα όμως από τα πάμπολλα θετικά παραδείγματα, υπάρχουν και κάποιες ανησυχίες που σχετίζονται με την ανάπτυξη και την εξάπλωση της τεχνητής νοημοσύνης είτε με πραγματική επιστημονική βάση είτε στη σφαίρα της φαντασίας. Ένα παράδειγμα που συναντάμε στη ρομποτική και στα συστήματα αυτομάτου ελέγχου έχει να κάνει με ρομπότ ή μηχανές που ελέγχονται από AI και θα μπορούσαν να αντικαταστήσουν τους ανθρώπους σε διάφορα επαγγέλματα, οδηγώντας σε σημαντικές κοινωνικές αλλαγές. Αυτό εγείρει ερωτήματα σχετικά με την εκτόπιση θέσεων εργασίας και την ανάγκη επανεκπαίδευσης και επανειδίκευσης του εργατικού δυναμικού. Ένα άλλο παράδειγμα αποτελεί η υπερευφυΐα (superintelligence). Η έννοια της υπερευφυούς τεχνητής νοημοσύνης αναφέρεται σε εξαιρετικά προηγμένα συστήματα τεχνητής νοημοσύνης που ξεπερνούν την ανθρώπινη νοημοσύνη και διαθέτουν ικανότητες πολύ πέρα από την κατανόησή μας. Αυτή η άποψη προφανώς έχει διερευνηθεί στο πλαίσιο της επιστημονικής φαντασίας. Αξίζει να σημειωθεί ότι αυτά τα ακραία παραδείγματα εξακολουθούν να είναι υποθετικά και υπάρχουν συνεχείς ηθικές συζητήσεις και ερευνητικές προσπάθειες για να διασφαλιστεί η υπεύθυνη και επωφελής χρήση των τεχνολογιών τεχνητής νοημοσύνης.

 

Όμως η ΑΙ τροφοδοτείται με τα στοιχεία που ο άνθρωπος της δίνει, σωστά; Θα μπορούσε κάποιος να διδάξει την ΑΙ, για παράδειγμα, ότι ο ναζισμός είναι πιο σωστή πολιτική ιδεολογία; Ή ότι η ομοφυλοφιλία είναι κάτι ανήθικο και πρέπει να τιμωρείται;
Τα συστήματα τεχνητής νοημοσύνης εκπαιδεύονται πράγματι χρησιμοποιώντας δεδομένα για τα οποία ο εκάστοτε άνθρωπος/ομάδα αποφασίζει για την ορθότητα τους. Η ευθύνη για τον προσδιορισμό των δεδομένων που χρησιμοποιούνται για την εκπαίδευση και των ηθικών κριτηρίων που εμπλέκονται βαρύνουν ανθρώπους, δηλαδή προγραμματιστές, ερευνητές και οποιονδήποτε εμπλεκόμενο στο εκάστοτε έργο και προφανώς όχι την ίδια την τεχνητή νοημοσύνη. Τα συστήματα AI μαθαίνουν μοτίβα και κάνουν προβλέψεις με βάση τα δεδομένα στα οποία εκτίθενται κατά τη διάρκεια της εκπαίδευσης. Τα δεδομένα που χρησιμοποιούνται πρέπει να επιλέγονται προσεκτικά και να αντιπροσωπεύουν τα επιθυμητά αποτελέσματα σε ένα πλαίσιο αξιών.

Στα συγκεκριμένα παραδείγματα που αναφέρεις είναι σημαντικό να σημειωθεί ότι τα συστήματα τεχνητής νοημοσύνης δεν έχουν εγγενείς ηθικές αξίες ή πεποιθήσεις. Μαθαίνουν από τα δεδομένα που τους δίνουμε, αλλά οι ηθικοί προβληματισμοί και οι προκαταλήψεις που σχετίζονται με αυτά τα δεδομένα ανήκουν στους ανθρώπους που εμπλέκονται στη διαδικασία ανάπτυξης. Τα συστήματα τεχνητής νοημοσύνης μπορούν να αντικατοπτρίζουν και να ενισχύουν τις προκαταλήψεις που υπάρχουν στα δεδομένα στα οποία εκπαιδεύονται, επομένως είναι σημαντικό να επιμελούνται και να αξιολογούνται προσεκτικά τα δεδομένα για να αποφευχθεί η ενίσχυση τυχόν μεροληπτικών ή επιβλαβών πεποιθήσεων. Μιλήσαμε πιο πάνω για ένα πλαίσιο αξιών, το οποίο τονίζω ξανά. Είναι ευθύνη των εταιρειών, των οργανισμών και της κοινωνίας στο σύνολό της να διασφαλίσουν ότι τα συστήματα τεχνητής νοημοσύνης εκπαιδεύονται και χρησιμοποιούνται με ηθικό τρόπο. Κατευθυντήριες γραμμές, κανονισμοί και δεοντολογικά πλαίσια αναπτύσσονται ήδη για την αντιμετώπιση τέτοιου είδους ανησυχιών αλλά και την προώθηση της δικαιοσύνης και της διαφάνειας στα συστήματα τεχνητής νοημοσύνης. Σε τελική ανάλυση, οι αξίες και οι πεποιθήσεις που θα πρέπει να καθοδηγούν την ανάπτυξη και τη χρήση συστημάτων τεχνητής νοημοσύνης είναι θέμα ανθρώπινης κρίσης και ηθικών εκτιμήσεων. Είναι απαραίτητο να προωθηθεί η διαφορετικότητα και ο σεβασμός των ανθρωπίνων δικαιωμάτων κατά το σχεδιασμό και την εφαρμογή τεχνολογιών τεχνητής νοημοσύνης. Δεν είναι εύκολο αλλά είναι απαραίτητο.

Να μιλήσουμε επομένως και για τους κινδύνους αυτής της τεχνολογίας. Ποιες αρνητικές επιπτώσεις μπορεί να έχει; Είναι μόνο οι θέσεις εργασίας που απειλούνται;
Αφού αναλύσαμε τα οφέλη, είναι εξίσου σημαντικό να αναγνωρίσουμε και τις πιθανές αρνητικές επιπτώσεις και τους κινδύνους που σχετίζονται με την ανάπτυξη και την εξάπλωση της τεχνητής νοημοσύνης. Ένα θέμα που ενδεχομένως να ανακύψει είναι η μετατόπιση εργασίας – και όχι η απουσία αυτής. Μέσω των αυτοματισμών/αυτοματοποιήσεων που θα προκύψουν από την τεχνητή νοημοσύνη ενδεχομένως να αντικατασταθούν ορισμένες εργασίες που παραδοσιακά εκτελούνται από ανθρώπους. Καθώς η τεχνολογία AI προχωρά, υπάρχει πιθανότητα μετατόπισης θέσεων εργασίας σε διάφορους τομείς. Ωστόσο, είναι σημαντικό να σημειωθεί ότι η τεχνητή νοημοσύνη μπορεί επίσης να δημιουργήσει νέες ευκαιρίες εργασίας και ρόλους που απαιτούν ανθρώπινες δεξιότητες σε συνεργασία με συστήματα τεχνητής νοημοσύνης. Κάθε νέα τεχνολογία/επανάσταση επιφέρει και αλλαγές ενδεχομένως και στις θέσεις εργασίας που είτε θα εκλείψουν είτε θα δημιουργηθούν βάσει των νέων συνθηκών.

 O Κωνσταντίνος Βαβούσης

Ένα ζήτημα που αναφέρθηκε προηγουμένως είναι ότι τα συστήματα τεχνητής νοημοσύνης τροφοδοτούνται με σύνολα δεδομένων από ανθρώπους. Τα σύνολα δεδομένων που λαμβάνουν, ενδεχομένως να διδάξουν το εκάστοτε σύστημα με στοιχεία που προωθούν προκαταλήψεις οδηγώντας στην λανθασμένη εκπαίδευση του ΑΙ. Εάν τα δεδομένα εκπαίδευσης περιέχουν μεροληπτικά μοτίβα δεδομένων, το σύστημα τεχνητής νοημοσύνης μπορεί να διαιωνίσει και να ενισχύσει προκαταλήψεις με ανεπιθύμητα αποτελέσματα στις αποφάσεις που θα λαμβάνει.

Τα ποικίλα πλεονεκτήματα της τεχνητής νοημοσύνης που αναφέρθηκαν προηγουμένως στον τομέα της υγείας και των μεταφορών, έχουν και ορισμένες πιθανές αρνητικές προεκτάσεις. Υπάρχουν ενδεχόμενες ηθικές επιπτώσεις σε τομείς όπως τα αυτόνομα οχήματα και οι αλγόριθμοι ιατρικής διάγνωσης. Ο προσδιορισμός της λογοδοσίας, της διαφάνειας και της υπευθυνότητας όταν τα συστήματα τεχνητής νοημοσύνης λαμβάνουν αποφάσεις ειδικά σε θέματα ζωής και θανάτου, είναι μια περίπλοκη πρόκληση που χρειάζεται προσεκτική εξέταση και αντιμετώπιση. Η ευκολία του εκάστοτε συστήματος ΑΙ να συνδυάσει όλα τα βιβλιογραφικά δεδομένα για μια ασθένεια και να εξάγει συμπεράσματα, ενδεχομένως να μην έχει το επιθυμητό αποτέλεσμα στην ουσιαστική θεραπεία ενός συγκεκριμένου ασθενή. Η παρουσία επιστήμονα ιατρού είναι απολύτως απαραίτητη και δεν ξέρω αν θα προλάβουμε να βιώσουμε, τουλάχιστον η γενιά μας, πλήρη αυτοματοποίηση σε τέτοιου είδους τομείς.

Η λίστα δεν τελειώνει όμως εδώ. Έχει γίνει λόγος επίσης για κίνδυνους στην ιδιωτικότητα και την ασφάλεια. Η δυνατότητα της τεχνητής νοημοσύνης να επεξεργάζεται τεράστια σύνολα δεδομένων εγείρει ανησυχίες που σχετίζονται με το απόρρητο, την προστασία δεδομένων και την πιθανή κακή χρήση ή μη εξουσιοδοτημένη πρόσβαση σε προσωπικές πληροφορίες. Φυσικά θα πρέπει να υπάρχουν διασφαλίσεις για την προστασία των ευαίσθητων δεδομένων και τη διασφάλιση της υπεύθυνης διαχείρισης των προσωπικών πληροφοριών.

Σε έναν άλλο τομέα, και όπως συμβαίνει με κάθε νέα τεχνολογία, η άνιση πρόσβαση σε τεχνολογίες τεχνητής νοημοσύνης, μπορεί να διευρύνει το χάσμα μεταξύ εκείνων που έχουν πρόσβαση και εκείνων που δεν έχουν, οδηγώντας σε οικονομικές και κοινωνικές ανισότητες. Η διασφάλιση της δίκαιης κατανομής και της προσβασιμότητας των τεχνολογιών τεχνητής νοημοσύνης είναι απαραίτητη για την αποφυγή επιδείνωσης των υφιστάμενων ανισοτήτων.

 Θα πρέπει να γίνει σαφές ότι τα συστήματα τεχνητής νοημοσύνης ακολουθούνται από ανθρώπινη επίβλεψη, χωρίς την οποία ενδεχομένως να προκύψουν ποικίλες συνέπειες. Είναι σημαντικό να αναγνωρίσουμε τους περιορισμούς και τις πιθανές αστοχίες των συστημάτων τεχνητής νοημοσύνης και να διασφαλίσουμε την ανθρώπινη κρίση και παρέμβαση όταν χρειάζεται. Η αντιμετώπιση αυτών των ανησυχιών απαιτεί διεπιστημονική προσέγγιση που περιλαμβάνει τεχνολόγους, νομικούς, υπεύθυνους για την χάραξη πολιτικών, σίγουρα τον ηθικό παρονομαστή και την κοινωνία γενικότερα. Κατευθυντήριες γραμμές, κανονισμοί και δεοντολογικά πλαίσια αναπτύσσονται για να διασφαλιστεί η υπεύθυνη και ηθική ανάπτυξη και χρήση της τεχνητής νοημοσύνης, προωθώντας τη διαφάνεια, τη δικαιοσύνη και τη λογοδοσία.

Κάποιοι φτάνουν να μιλήσουν ακόμη και για το τέλος της ανθρωπότητας. Πώς θα μπορούσαμε να φτάσουμε σε αυτό το εφιαλτικό -όπως σε ένα Matrix/Terminator- σενάριο; Θα μπορούσε να στραφεί κατά του ανθρώπου;
Αυτό φαίνεται πραγματικά αστείο! Το σενάριο να στραφεί η τεχνητή νοημοσύνη κατά της ανθρωπότητας, όπως απεικονίζεται στα αγαπημένα "Matrix" και "Terminator", αναφέρεται συχνά ως "AI Apocalypse" (Η Αποκάλυψη της τεχνητής νοημοσύνης) ή "existential risk." (υπαρξιακός κίνδυνος). Είναι σημαντικό να σημειωθεί ότι η επίτευξη ενός τέτοιου σεναρίου είναι εξαιρετικά απίθανη και επί του παρόντος παραμένει στη σφαίρα της επιστημονικής φαντασίας. Υπάρχουν διάφοροι λόγοι για τους οποίους οι ανησυχίες καταστροφικών σεναρίων για την ανθρωπότητα εξαιτίας στην τεχνητής νοημοσύνης θεωρούνται γενικά τραβηγμένες. Θα μας έχει προλάβει η κλιματική αλλαγή!

Πάμε να τους δούμε όμως έναν προς έναν. Αρχικά μιλάμε για μια τεχνολογία που δεν έχει ακόμη τις δυνατότητες που φανταζόμαστε. Παρά τις σημαντικές προόδους στην τεχνητή νοημοσύνη, τα τρέχοντα συστήματα είναι περιορισμένα στις δυνατότητές τους. Τους λείπει γενική ευφυΐα και συνείδηση, συστατικά που πολύ δύσκολα θα επιτευχθούν επιτυχώς. Τα συστήματα AI έχουν σχεδιαστεί για να εκτελούν συγκεκριμένες εργασίες και δεν διαθέτουν την αυτογνωσία, την ευφυΐα και την συνείδηση που απεικονίζεται στις ταινίες.

Ένα άλλο σημαντικό θέμα είναι ότι τα συστήματα τεχνητής νοημοσύνης αναπτύσσονται και λειτουργούν από ανθρώπους. Απαιτούν ανθρώπινο προγραμματισμό, εκπαίδευση και συντήρηση. Οι άνθρωποι έχουν την ικανότητα να θέτουν όρια και κανόνες για να διασφαλίζουν την υπεύθυνη ανάπτυξη και χρήση τεχνολογιών τεχνητής νοημοσύνης.

 Οι ερευνητές, οι διαχειριστές συστημάτων και οι εταιρείες/οργανισμοί που είναι υπεύθυνοι στην ανάπτυξη τέτοιου είδους συστημάτων επικεντρώνονται ολοένα και περισσότερο σε ηθικές κατευθυντήριες γραμμές και πλαίσια για να διασφαλίσουν την υπεύθυνη και επωφελή χρήση της τεχνητής νοημοσύνης. Οι συζητήσεις γύρω από το νομικό πλαίσιο, τη διαφάνεια και τη λογοδοσία είναι ζωτικής σημασίας για την πρόληψη της χρήσης συστημάτων τεχνητής νοημοσύνης με επιβλαβείς ή κακόβουλους τρόπους.

Τα συστήματα τεχνητής νοημοσύνης, όπως έχουν σχεδιαστεί επί του παρόντος, δεν διαθέτουν δικές τους επιθυμίες, συναισθήματα ή κίνητρα. Λειτουργούν βάσει αλγόριθμων και κανόνων και οι ενέργειές τους καθοδηγούνται από τους στόχους που έχουν θέσει άνθρωποι. Δεν υπάρχει εγγενής λόγος για τα συστήματα AI να στραφούν εναντίον της ανθρωπότητας.

Υπάρχει, τέλος, τρόπος να βάλει «χαλινάρι» ο άνθρωπος στην ΑΙ; Να βρει δηλαδή τον δρόμο ώστε η ΑΙ να τον εξυπηρετεί ελεγχόμενα, με ασφαλή τρόπο;
Ενώ η επίτευξη απόλυτου ελέγχου των συστημάτων τεχνητής νοημοσύνης μπορεί να αποτελεί πρόκληση, υπάρχουν διάφορες προσεγγίσεις όπως αυτές αναφέρθηκαν, για την προώθηση της υπεύθυνης και ασφαλούς ανάπτυξης της τεχνητής νοημοσύνης. Είναι σημαντικό να αναφερθεί ξανά ότι θα πρέπει να δοθεί προτεραιότητα σε ηθικά ζητήματα και να διατηρηθεί ο ανθρώπινος έλεγχος και η εποπτεία. Με τον τρόπο αυτό μπορούμε να διασφαλίσουμε ότι η τεχνολογία AI θα παραμένει επωφελής και ευθυγραμμισμένη με τις ανθρώπινες αξίες. Είναι σημαντικό να αναγνωρίσουμε ότι η επίτευξη πλήρους ελέγχου στα συστήματα τεχνητής νοημοσύνης είναι δύσκολη λόγω της πολυπλοκότητάς τους και της πιθανότητας για απρόβλεπτες συνέπειες. Η συνεχής έρευνα, η συνεργασία και η αποτελεσματική αξιολόγηση των συστημάτων τεχνητής νοημοσύνης είναι ζωτικής σημασίας για να διασφαλιστεί ότι αναπτύσσονται και χρησιμοποιούνται με τρόπο που ωφελεί την ανθρωπότητα, ενώ παράλληλα τηρούνται τα πρότυπα δεοντολογίας και ασφάλειας.

*O Κωνσταντίνος Βαβούσης είναι Σύμβουλος ασφάλειας πληροφοριακών συστημάτων στην Trust Information Technologies - Cybersecurity – Consulting Services (www.trust-it.gr)

iefimerida.gr

Ειδησεογραφικός, Ενημερωτικός, Ιστότοπος με σεβασμό στην αμερόληπτη ευρεία παρουσίαση των γεγονότων. Έγκυρη και έγκαιρη καθημερινή ενημέρωση!

 

 online mediaΜέλος του μητρώου
 ONLINE MEDIA
  Επικοινωνία

 

Διαγωνισμός

diagonismoi prosexos