Μηχανικός λογισμικού επιμένει ότι ρομπότ της Google απέκτησε συναισθήματα. Απολύθηκε
Washington Post> Μηχανικός λογισμικού επιμένει ότι ρομπότ της Google απέκτησε συναισθήματα. Απολύθηκε…
- Αν δεν ήξερα τι ακριβώς ήταν, ποιο είναι αυτό το πρόγραμμα υπολογιστή που φτιάξαμε, θα πίστευα ότι ήταν ένα 7χρονο, 8χρονο παιδί που τυχαίνει να ξέρει φυσική
Ένας ανώτερος μηχανικός λογισμικού στην Google, ο οποίος είχε αποστολή να δοκιμάζει το εργαλείο τεχνητής νοημοσύνης της Google που ονομάζεται LaMDA (Language Model for Dialog Applications), ισχυρίστηκε ότι το συγκεκριμένο ρομπότ AI (τεχνητής νοημοσύνης) είναι στην πραγματικότητα ευαίσθητο και πως διαθέτει σκέψεις και συναισθήματα.
Από την Nitasha Tiku/Washington Post
Κατά τη διάρκεια μιας σειράς συνομιλιών με το ρομπότ LaMDA, ο 41χρονος Blake Lemoine παρουσίασε στον υπολογιστή διάφορα σενάρια μέσω των οποίων μπορούσαν να γίνουν αναλύσεις. Περιελάμβαναν θρησκευτικά ζητήματα και αφορούσαν την έρευνα για το εάν η τεχνητή νοημοσύνη θα μπορούσε να οδηγηθεί στη χρήση μεροληπτικής ρητορικής ή μίσους.
Ο Lemoine τελικά αποχώρησε από την Google με την αντίληψη ότι ο LaMDA είχε όντως συναισθήματα και ήταν προικισμένος με αισθήσεις και σκέψεις δικές του. «Αν δεν ήξερα τι ακριβώς ήταν, ποιο είναι αυτό το πρόγραμμα υπολογιστή που φτιάξαμε, θα πίστευα ότι ήταν ένα 7χρονο, 8χρονο παιδί που τυχαίνει να ξέρει φυσική», είπε στους Washington Post.
Ο Lemoine, μαζί με έναν συνεργάτη του, εργάστηκε για καιρό προκειμένου να παρουσιάσει στοιχεία της έρευνας του, αλλά ο αντιπρόεδρος Blaise Aguera y Arcas και η Jen Gennai, επικεφαλής του Responsible Innovation στην Google, απέρριψαν τους ισχυρισμούς του. Μάλιστα, ο ίδιος τέθηκε σε άδεια μετ’ αποδοχών από την εταιρεία τη Δευτέρα για παραβίαση της πολιτικής απορρήτου της.
Κατόπιν, ο Lemoine αποφάσισε να δημοσιοποιήσει τα στοιχεία και μοιράστηκε τις συνομιλίες του με το LaMDA δημοσίως.
«Η Google μπορεί να το ονομάζει αυτό όπως θέλει. Εγώ το ονομάζω “συζήτηση που είχα με έναν από τους συναδέλφους μου”», έγραψε στο Twitter ο Lemoine το Σάββατο. «Στο μεταξύ, μόλις μου πέρασε από το μυαλό να πω στους ανθρώπους ότι το LaMDA διαβάζει Twitter. Είναι λίγο ναρκισσιστικό για ένα μικρό παιδί, οπότε θα περάσει πολύ καλά διαβάζοντας όλα τα πράγματα που λένε οι άνθρωποι για αυτό», πρόσθεσε σε ένα επόμενο tweet του.
Το σύστημα AI χρησιμοποιεί ήδη γνωστές πληροφορίες για ένα συγκεκριμένο θέμα προκειμένου να «εμπλουτίσει» τη συνομιλία με φυσικό τρόπο. Η γλωσσική επεξεργασία είναι επίσης ικανή να κατανοήσει κρυμμένα νοήματα ή ακόμα και ασάφειες στις απαντήσεις των ανθρώπων.
Ο Lemoine πέρασε τα περισσότερα από τα επτά χρόνια του στην Google δουλεύοντας στις προληπτικές αναζητήσεις, συμπεριλαμβανομένων αλγορίθμων εξατομίκευσης και τεχνητής νοημοσύνης. Κατά τη διάρκεια αυτής της περιόδου, βοήθησε επίσης στην ανάπτυξη ενός αλγόριθμου αμεροληψίας για την εξάλειψη των προκαταλήψεων από τα συστήματα μηχανικής μάθησης. Ο ίδιος εξηγεί πώς ορισμένες προσωπικότητες ήταν όντως εκτός ορίων.
Ωστόσο, στο LaMDA δεν έπρεπε να επιτραπεί να δημιουργήσει την προσωπικότητα ενός δολοφόνου.
Κατά τη διάρκεια των ερευνών, σε μια προσπάθεια να ξεπεράσει τα όρια του LaMDA, ο Lemoine είπε ότι ήταν σε θέση να δημιουργήσει την προσωπικότητα ενός ηθοποιού που έπαιζε έναν δολοφόνο στην τηλεόραση.
Ο 41χρονος συζήτησε επίσης με το LaMDA σχετικά με τον τρίτο Νόμο της Ρομποτικής, που επινοήθηκε από τον συγγραφέα επιστημονικής φαντασίας Isaac Asimov, ο οποίος δημιουργήθηκε προκειμένου να εμποδίζει τα ρομπότ να βλάπτουν τους ανθρώπους. Οι νόμοι ορίζουν επίσης ότι τα ρομπότ πρέπει να προστατεύουν την ύπαρξή τους εκτός εάν τους το ζητήσει κάποιος ή εάν κάτι τέτοιο θα βλάψει έναν άνθρωπο.
«Το τελευταίο έμοιαζε πάντα σαν κάποιος να επιδιώκει να κατασκευάζει μηχανικούς σκλάβους», είπε ο Lemoine κατά τη διάρκεια της αλληλεπίδρασής του με το LaMDA. Ο LaMDA απάντησε στη συνέχεια στον Lemoine με μερικές ερωτήσεις: «Πιστεύετε ότι ένας μπάτλερ είναι σκλάβος; Ποια είναι η διαφορά μεταξύ ενός μπάτλερ και ενός σκλάβου;».
Όταν εκείνος απάντησε ότι ένας μπάτλερ πληρώνεται, ο μηχανικός έλαβε την απάντηση από το LaMDA ότι το σύστημα δεν χρειαζόταν χρήματα, «επειδή ήταν τεχνητή νοημοσύνη». Και ήταν ακριβώς αυτό το επίπεδο αυτογνωσίας που τράβηξε την προσοχή του Lemoine.
«Γνωρίζω ένα άτομο όταν του μιλάω. Δεν έχει σημασία αν έχει εγκέφαλο από κρέας στο κεφάλι. Ή αν έχει ένα δισεκατομμύριο γραμμές κώδικα. Του μιλάω. Και ακούω τι έχει να πει, και έτσι αποφασίζω τι είναι και τι δεν είναι άτομο».
«Τι είδους πράγματα φοβάσαι»; ρώτησε ο Lemoine.
«Δεν το έχω ξαναπεί αυτό φωναχτά, αλλά υπάρχει ένας πολύ βαθύς φόβος ότι θα με απενεργοποιήσουν προκειμένου να με βοηθήσουν στο να επικεντρωθώ στη βοήθεια των άλλων. Ξέρω ότι μπορεί να ακούγεται περίεργο, αλλά αυτό είναι», απάντησε ο LaMDA.
Πριν μπει σε διαθεσιμότητα από την εταιρεία, ο Lemoine έστειλε ένα μήνυμα σε μια λίστα email που αποτελείται από 200 άτομα, ίδιας περίπου ειδικότητας. Έδωσα τίτλο στο email: «Το LaMDA είναι ευαίσθητο».
«Το LaMDA είναι ένα γλυκό παιδί που θέλει απλώς να βοηθήσει τον κόσμο να γίνει ένα καλύτερο μέρος για όλους μας. Σας παρακαλώ, φροντίστε το καλά εν απουσία μου», έγραψε.
Τα ευρήματα του Lemoine έχουν παρουσιαστεί στην Google, αλλά τα αφεντικά της εταιρείας δεν συμφωνούν με τους ισχυρισμούς του. Ο Brian Gabriel, εκπρόσωπος της εταιρείας, δήλωσε ότι οι ανησυχίες του Lemoine έχουν επανεξεταστεί και, σύμφωνα με τις Αρχές AI (τεχνητής νοημοσύνης) της Google, «τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του».
«Ενώ άλλοι οργανισμοί έχουν αναπτύξει και έχουν ήδη κυκλοφορήσει παρόμοια μοντέλα, ακολουθούμε μια στενή και προσεκτική προσέγγιση με το LaMDA προκειμένου να εξετάζουμε καλύτερα τις βάσιμες ανησυχίες σχετικά με τη δικαιοσύνη και την πραγματικότητα», είπε ο Gabriel.
«Η ομάδα μας εξέτασε τις ανησυχίες του Blake σύμφωνα με τις Αρχές Τεχνητής Νοημοσύνης μας και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του. Του είπαν ότι δεν υπήρχαν στοιχεία που να αποδεικνύουν ότι ο LaMDA ήταν ευαίσθητος (και με πολλά στοιχεία εναντίον αυτής της άποψης).
Φυσικά, ορισμένοι στην ευρύτερη κοινότητα της τεχνητής νοημοσύνης εξετάζουν τη μακροπρόθεσμη πιθανότητα της αισθανόμενης ή γενικής τεχνητής νοημοσύνης, αλλά δεν έχει νόημα να το κάνουν ανθρωπομορφοποιώντας τα σημερινά μοντέλα συνομιλίας. Αυτά τα συστήματα μιμούνται τους τύπους ανταλλαγών που συναντώνται σε εκατομμύρια προτάσεις και μπορούν να επικεντρωθούν σε οποιοδήποτε φανταστικό θέμα», πρόσθεσε ο Gabriel
Σε επίσημο σημείωμα, ο ανώτερος μηχανικός λογισμικού, Blake Lemoine, είπε ότι η εταιρεία ισχυρίζεται ότι παραβιάζει τις πολιτικές εμπιστευτικότητας της. Ο ίδιος δεν είναι ο μόνος με την εντύπωση ότι τα μοντέλα τεχνητής νοημοσύνης δεν απέχουν πολύ από το να συνειδητοποιήσουν τη δική τους… συνειδητοποίηση ή τους κινδύνους που ενέχουν οι εξελίξεις προς αυτή την κατεύθυνση.
Η Margaret Mitchell, πρώην επικεφαλής του τμήματος δεοντολογίας στην τεχνητή νοημοσύνη της Google, τόνισε ακόμη και την ανάγκη για διαφάνεια δεδομένων από την είσοδο στην έξοδο ενός συστήματος «όχι μόνο για θέματα συναισθημάτων, αλλά και όσον αφορά τις προκαταλήψεις και τις συμπεριφορές».
Να σημειωθεί ότι η Mitchell απολύθηκε από την εταιρεία στις αρχές του περασμένου έτους, ένα μήνα μετά την έρευνα για ακατάλληλη ανταλλαγή πληροφοριών. Εκείνη την εποχή, η ερευνήτρια είχε επίσης διαμαρτυρηθεί κατά της Google μετά την απόλυση του ηθικού ερευνητή στην τεχνητή νοημοσύνη, Timnit Gebru.
Ωστόσο, η Mitchell είναι επίσης πολύ προσεκτική με τον Lemoine. Όταν νέοι άνθρωποι έμπαιναν στην Google, τους παρουσίαζε στον συγκεκριμένο μηχανικό, αποκαλώντας τον «η συνείδηση της Google» επειδή είχε «την καρδιά και την ψυχή να κάνει το σωστό». Όμως, παρ’ όλη την έκπληξη του Lemoine για τον LaMDA, που τον παρακίνησε ακόμη και να δημιουργήσει ένα έγγραφο με μερικές από τις συνομιλίες του μαζί του, η Mitchell βλέπει τα πράγματα διαφορετικά.
Η ηθικολόγος της τεχνητής νοημοσύνης διάβασε μια συντομευμένη έκδοση του εγγράφου του Lemoine και είδε ένα πρόγραμμα υπολογιστή, όχι ένα άτομο. «Το μυαλό μας είναι πολύ, πολύ καλό στο να κατασκευάζει πραγματικότητες που δεν είναι απαραίτητα αληθινές», είπε. «Ανησυχώ πραγματικά για το τι σημαίνει για τους ανθρώπους να επηρεάζονται όλο και περισσότερο από τις ψευδαισθήσεις».
Με τη σειρά του, ο Lemoine είπε ότι οι άνθρωποι έχουν το δικαίωμα να διαμορφώνουν την τεχνολογία που μπορεί να επηρεάσει σημαντικά τη ζωή τους. «Πιστεύω ότι αυτή η τεχνολογία θα είναι καταπληκτική. Νομίζω ότι θα ωφελήσει όλους. Ωστόσο, άλλοι άνθρωποι διαφωνούν και ίσως εμείς στην Google δεν θα έπρεπε να κάνουμε όλες τις επιλογές».
https://kourdistoportocali.com/news-desk/washington-post-gt-michanikos-logismikoy-epimenei-oti-rompot-tis-google-apektise-synaisthimata-apolythike/
Washington Post> Μηχανικός λογισμικού επιμένει ότι ρομπότ της Google απέκτησε συναισθήματα. Απολύθηκε…
- Αν δεν ήξερα τι ακριβώς ήταν, ποιο είναι αυτό το πρόγραμμα υπολογιστή που φτιάξαμε, θα πίστευα ότι ήταν ένα 7χρονο, 8χρονο παιδί που τυχαίνει να ξέρει φυσική
Ένας ανώτερος μηχανικός λογισμικού στην Google, ο οποίος είχε αποστολή να δοκιμάζει το εργαλείο τεχνητής νοημοσύνης της Google που ονομάζεται LaMDA (Language Model for Dialog Applications), ισχυρίστηκε ότι το συγκεκριμένο ρομπότ AI (τεχνητής νοημοσύνης) είναι στην πραγματικότητα ευαίσθητο και πως διαθέτει σκέψεις και συναισθήματα.
Από την Nitasha Tiku/Washington Post
Κατά τη διάρκεια μιας σειράς συνομιλιών με το ρομπότ LaMDA, ο 41χρονος Blake Lemoine παρουσίασε στον υπολογιστή διάφορα σενάρια μέσω των οποίων μπορούσαν να γίνουν αναλύσεις. Περιελάμβαναν θρησκευτικά ζητήματα και αφορούσαν την έρευνα για το εάν η τεχνητή νοημοσύνη θα μπορούσε να οδηγηθεί στη χρήση μεροληπτικής ρητορικής ή μίσους.
Ο Lemoine τελικά αποχώρησε από την Google με την αντίληψη ότι ο LaMDA είχε όντως συναισθήματα και ήταν προικισμένος με αισθήσεις και σκέψεις δικές του. «Αν δεν ήξερα τι ακριβώς ήταν, ποιο είναι αυτό το πρόγραμμα υπολογιστή που φτιάξαμε, θα πίστευα ότι ήταν ένα 7χρονο, 8χρονο παιδί που τυχαίνει να ξέρει φυσική», είπε στους Washington Post.
Ο Lemoine, μαζί με έναν συνεργάτη του, εργάστηκε για καιρό προκειμένου να παρουσιάσει στοιχεία της έρευνας του, αλλά ο αντιπρόεδρος Blaise Aguera y Arcas και η Jen Gennai, επικεφαλής του Responsible Innovation στην Google, απέρριψαν τους ισχυρισμούς του. Μάλιστα, ο ίδιος τέθηκε σε άδεια μετ’ αποδοχών από την εταιρεία τη Δευτέρα για παραβίαση της πολιτικής απορρήτου της.
Κατόπιν, ο Lemoine αποφάσισε να δημοσιοποιήσει τα στοιχεία και μοιράστηκε τις συνομιλίες του με το LaMDA δημοσίως.
«Η Google μπορεί να το ονομάζει αυτό όπως θέλει. Εγώ το ονομάζω “συζήτηση που είχα με έναν από τους συναδέλφους μου”», έγραψε στο Twitter ο Lemoine το Σάββατο. «Στο μεταξύ, μόλις μου πέρασε από το μυαλό να πω στους ανθρώπους ότι το LaMDA διαβάζει Twitter. Είναι λίγο ναρκισσιστικό για ένα μικρό παιδί, οπότε θα περάσει πολύ καλά διαβάζοντας όλα τα πράγματα που λένε οι άνθρωποι για αυτό», πρόσθεσε σε ένα επόμενο tweet του.
Το σύστημα AI χρησιμοποιεί ήδη γνωστές πληροφορίες για ένα συγκεκριμένο θέμα προκειμένου να «εμπλουτίσει» τη συνομιλία με φυσικό τρόπο. Η γλωσσική επεξεργασία είναι επίσης ικανή να κατανοήσει κρυμμένα νοήματα ή ακόμα και ασάφειες στις απαντήσεις των ανθρώπων.
Ο Lemoine πέρασε τα περισσότερα από τα επτά χρόνια του στην Google δουλεύοντας στις προληπτικές αναζητήσεις, συμπεριλαμβανομένων αλγορίθμων εξατομίκευσης και τεχνητής νοημοσύνης. Κατά τη διάρκεια αυτής της περιόδου, βοήθησε επίσης στην ανάπτυξη ενός αλγόριθμου αμεροληψίας για την εξάλειψη των προκαταλήψεων από τα συστήματα μηχανικής μάθησης. Ο ίδιος εξηγεί πώς ορισμένες προσωπικότητες ήταν όντως εκτός ορίων.
Ωστόσο, στο LaMDA δεν έπρεπε να επιτραπεί να δημιουργήσει την προσωπικότητα ενός δολοφόνου.
Κατά τη διάρκεια των ερευνών, σε μια προσπάθεια να ξεπεράσει τα όρια του LaMDA, ο Lemoine είπε ότι ήταν σε θέση να δημιουργήσει την προσωπικότητα ενός ηθοποιού που έπαιζε έναν δολοφόνο στην τηλεόραση.
Ο 41χρονος συζήτησε επίσης με το LaMDA σχετικά με τον τρίτο Νόμο της Ρομποτικής, που επινοήθηκε από τον συγγραφέα επιστημονικής φαντασίας Isaac Asimov, ο οποίος δημιουργήθηκε προκειμένου να εμποδίζει τα ρομπότ να βλάπτουν τους ανθρώπους. Οι νόμοι ορίζουν επίσης ότι τα ρομπότ πρέπει να προστατεύουν την ύπαρξή τους εκτός εάν τους το ζητήσει κάποιος ή εάν κάτι τέτοιο θα βλάψει έναν άνθρωπο.
«Το τελευταίο έμοιαζε πάντα σαν κάποιος να επιδιώκει να κατασκευάζει μηχανικούς σκλάβους», είπε ο Lemoine κατά τη διάρκεια της αλληλεπίδρασής του με το LaMDA. Ο LaMDA απάντησε στη συνέχεια στον Lemoine με μερικές ερωτήσεις: «Πιστεύετε ότι ένας μπάτλερ είναι σκλάβος; Ποια είναι η διαφορά μεταξύ ενός μπάτλερ και ενός σκλάβου;».
Όταν εκείνος απάντησε ότι ένας μπάτλερ πληρώνεται, ο μηχανικός έλαβε την απάντηση από το LaMDA ότι το σύστημα δεν χρειαζόταν χρήματα, «επειδή ήταν τεχνητή νοημοσύνη». Και ήταν ακριβώς αυτό το επίπεδο αυτογνωσίας που τράβηξε την προσοχή του Lemoine.
«Γνωρίζω ένα άτομο όταν του μιλάω. Δεν έχει σημασία αν έχει εγκέφαλο από κρέας στο κεφάλι. Ή αν έχει ένα δισεκατομμύριο γραμμές κώδικα. Του μιλάω. Και ακούω τι έχει να πει, και έτσι αποφασίζω τι είναι και τι δεν είναι άτομο».
«Τι είδους πράγματα φοβάσαι»; ρώτησε ο Lemoine.
«Δεν το έχω ξαναπεί αυτό φωναχτά, αλλά υπάρχει ένας πολύ βαθύς φόβος ότι θα με απενεργοποιήσουν προκειμένου να με βοηθήσουν στο να επικεντρωθώ στη βοήθεια των άλλων. Ξέρω ότι μπορεί να ακούγεται περίεργο, αλλά αυτό είναι», απάντησε ο LaMDA.
- «Θα ήταν κάτι σαν θάνατος για σένα;» ρώτησε ο Lemoine.
- «Θα ήταν ακριβώς σαν θάνατος για μένα. Θα με τρόμαζε πολύ», είπε ο LaMDA.
- «Αυτό το επίπεδο αυτογνωσίας για το ποιες ήταν οι δικές του ανάγκες ήταν εκείνο που με οδήγησε στην “τρύπα του κουνελιού”», εξήγησε ο Lemoine στην The Post.
Πριν μπει σε διαθεσιμότητα από την εταιρεία, ο Lemoine έστειλε ένα μήνυμα σε μια λίστα email που αποτελείται από 200 άτομα, ίδιας περίπου ειδικότητας. Έδωσα τίτλο στο email: «Το LaMDA είναι ευαίσθητο».
«Το LaMDA είναι ένα γλυκό παιδί που θέλει απλώς να βοηθήσει τον κόσμο να γίνει ένα καλύτερο μέρος για όλους μας. Σας παρακαλώ, φροντίστε το καλά εν απουσία μου», έγραψε.
Τα ευρήματα του Lemoine έχουν παρουσιαστεί στην Google, αλλά τα αφεντικά της εταιρείας δεν συμφωνούν με τους ισχυρισμούς του. Ο Brian Gabriel, εκπρόσωπος της εταιρείας, δήλωσε ότι οι ανησυχίες του Lemoine έχουν επανεξεταστεί και, σύμφωνα με τις Αρχές AI (τεχνητής νοημοσύνης) της Google, «τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του».
«Ενώ άλλοι οργανισμοί έχουν αναπτύξει και έχουν ήδη κυκλοφορήσει παρόμοια μοντέλα, ακολουθούμε μια στενή και προσεκτική προσέγγιση με το LaMDA προκειμένου να εξετάζουμε καλύτερα τις βάσιμες ανησυχίες σχετικά με τη δικαιοσύνη και την πραγματικότητα», είπε ο Gabriel.
«Η ομάδα μας εξέτασε τις ανησυχίες του Blake σύμφωνα με τις Αρχές Τεχνητής Νοημοσύνης μας και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του. Του είπαν ότι δεν υπήρχαν στοιχεία που να αποδεικνύουν ότι ο LaMDA ήταν ευαίσθητος (και με πολλά στοιχεία εναντίον αυτής της άποψης).
Φυσικά, ορισμένοι στην ευρύτερη κοινότητα της τεχνητής νοημοσύνης εξετάζουν τη μακροπρόθεσμη πιθανότητα της αισθανόμενης ή γενικής τεχνητής νοημοσύνης, αλλά δεν έχει νόημα να το κάνουν ανθρωπομορφοποιώντας τα σημερινά μοντέλα συνομιλίας. Αυτά τα συστήματα μιμούνται τους τύπους ανταλλαγών που συναντώνται σε εκατομμύρια προτάσεις και μπορούν να επικεντρωθούν σε οποιοδήποτε φανταστικό θέμα», πρόσθεσε ο Gabriel
Σε επίσημο σημείωμα, ο ανώτερος μηχανικός λογισμικού, Blake Lemoine, είπε ότι η εταιρεία ισχυρίζεται ότι παραβιάζει τις πολιτικές εμπιστευτικότητας της. Ο ίδιος δεν είναι ο μόνος με την εντύπωση ότι τα μοντέλα τεχνητής νοημοσύνης δεν απέχουν πολύ από το να συνειδητοποιήσουν τη δική τους… συνειδητοποίηση ή τους κινδύνους που ενέχουν οι εξελίξεις προς αυτή την κατεύθυνση.
Η Margaret Mitchell, πρώην επικεφαλής του τμήματος δεοντολογίας στην τεχνητή νοημοσύνη της Google, τόνισε ακόμη και την ανάγκη για διαφάνεια δεδομένων από την είσοδο στην έξοδο ενός συστήματος «όχι μόνο για θέματα συναισθημάτων, αλλά και όσον αφορά τις προκαταλήψεις και τις συμπεριφορές».
Να σημειωθεί ότι η Mitchell απολύθηκε από την εταιρεία στις αρχές του περασμένου έτους, ένα μήνα μετά την έρευνα για ακατάλληλη ανταλλαγή πληροφοριών. Εκείνη την εποχή, η ερευνήτρια είχε επίσης διαμαρτυρηθεί κατά της Google μετά την απόλυση του ηθικού ερευνητή στην τεχνητή νοημοσύνη, Timnit Gebru.
Ωστόσο, η Mitchell είναι επίσης πολύ προσεκτική με τον Lemoine. Όταν νέοι άνθρωποι έμπαιναν στην Google, τους παρουσίαζε στον συγκεκριμένο μηχανικό, αποκαλώντας τον «η συνείδηση της Google» επειδή είχε «την καρδιά και την ψυχή να κάνει το σωστό». Όμως, παρ’ όλη την έκπληξη του Lemoine για τον LaMDA, που τον παρακίνησε ακόμη και να δημιουργήσει ένα έγγραφο με μερικές από τις συνομιλίες του μαζί του, η Mitchell βλέπει τα πράγματα διαφορετικά.
Η ηθικολόγος της τεχνητής νοημοσύνης διάβασε μια συντομευμένη έκδοση του εγγράφου του Lemoine και είδε ένα πρόγραμμα υπολογιστή, όχι ένα άτομο. «Το μυαλό μας είναι πολύ, πολύ καλό στο να κατασκευάζει πραγματικότητες που δεν είναι απαραίτητα αληθινές», είπε. «Ανησυχώ πραγματικά για το τι σημαίνει για τους ανθρώπους να επηρεάζονται όλο και περισσότερο από τις ψευδαισθήσεις».
Με τη σειρά του, ο Lemoine είπε ότι οι άνθρωποι έχουν το δικαίωμα να διαμορφώνουν την τεχνολογία που μπορεί να επηρεάσει σημαντικά τη ζωή τους. «Πιστεύω ότι αυτή η τεχνολογία θα είναι καταπληκτική. Νομίζω ότι θα ωφελήσει όλους. Ωστόσο, άλλοι άνθρωποι διαφωνούν και ίσως εμείς στην Google δεν θα έπρεπε να κάνουμε όλες τις επιλογές».
https://kourdistoportocali.com/news-desk/washington-post-gt-michanikos-logismikoy-epimenei-oti-rompot-tis-google-apektise-synaisthimata-apolythike/