Την άποψη ότι η Τεχνητή Νοημοσύνη πρέπει να δράσει συμπεριληπτικά για τα άτομα με αναπηρία, διατύπωσε η Sara Minkara, Special Advisor on International Disability Rights, Bureau of Democracy, Human Rights, and Labor, U.S. Department of State, μιλώντας στο συνέδριο Thessaloniki Future Thinking Dialogues (TFTD 2023), στη Θεσσαλονίκη.
Σύμφωνα με την ομιλήτρια, πρέπει να δημιουργηθεί Τεχνητή Νοημοσύνη που να βοηθάει στην ενσωμάτωση και προσβασιμότητα ατόμων με αναπηρία προκειμένου να μην περιθωριοποιούνται περισσότερο. Έθεσε μάλιστα ως παράδειγμα την τεχνολογία που χρησιμοποιήθηκε για το αυτοκίνητο χωρίς οδηγό, η οποία όμως δεν ανιχνεύει άτομα με αμαξίδια στον δρόμο, κάτι που δείχνει ότι στον σχεδιασμό του αυτοκινήτου δεν έλαβαν υπόψη ΑΜΕΑ.
«Ο κόσμος θα συνεχίσει να κινείται με μεγαλύτερη εξάρτηση από την Τεχνητή Νοημοσύνη αλλά πρέπει να συμπεριληφθούν και τα άτομα με αναπηρία τα οποία ακόμη δεν εκλαμβάνονται ως χρήστες που μπορούν να συμμετέχουν αλλά ως άτομα που χρειάζονται βοήθεια» είπε η κ.Minkara. Για την ίδια, όταν η αναπηρία και η προσβασιμότητα εισάγονται ως έννοιες στην Τεχνητή Νοημοσύνη, αυτό μπορεί να οδηγήσει σε νέες προοπτικές προς όφελος όλων.
«Πρέπει να κάνουμε αυτές τις δύσκολες συζητήσεις όσον αφορά την αναπηρία, το ΑΕΠ μπορεί να επηρεαστεί όσον αφορά τη συμπερίληψη αφού τα ΑΜΕΑ έχουν ένα διαθέσιμο εισόδημα τα οποίο δεν μπορεί να χρησιμοποιηθεί λόγω του αποκλεισμού τους από πολλές δράσεις». Όπως είπε χαρακτηριστικά η κ.Minkara, ως άτομο με αναπηρία και η ίδια, «το πρώτο που ζητούμε όσον αφορά την Τεχνητή Νοημοσύνη είναι να ληφθεί υπόψη το θέμα της προσβασιμότητας».
«Χρειάζονται αλλαγές στο αφήγημα, στις περισσότερες χώρες υπάρχουν συμβάσεις για τα δικαιώματα των αναπήρων όμως η κοινωνία πρέπει να απαιτήσει τη συμπερίληψη. Τίποτα χωρίς εμάς, να συμμετέχουμε πάντα» κατέληξε.
Στη συζήτηση με θέμα «Responsible AI Leadership: Balancing Innovation and Values» που συντόνισε ο γενικός γραμματέας του Ελληνο- Αμερικανικού Εμπορικού Επιμελητηρίου Αλέξανδρος Κωστόπουλος, παρενέβη και ο Vincent Müller, A. v. Humboldt Professor, Philosophy and Ethics of AI and Director, Centre for Philosophy and AI Research, Friedrich-Alexander Universität Erlangen-Nürnberg, μιλώντας για την θεωρία ορθολογικής επιλογής που εφαρμόζεται στα συστήματα τεχνητής νοημοσύνης.
«Η Τεχνητή Νοημοσύνη πρέπει να τροφοδοτείται με στόχους και να εισάγεται η δεοντολογία, δηλαδή όχι τι δεν πρέπει να κάνω αλλά ποιοι θα πρέπει να είναι οι στόχοι μου» εξήγησε.
Πάντως για την Pam Dixon, Founder and Executive Director, World Privacy Forum, υπάρχει οικονομική, εκπαιδευτική και φυλετική προκατάληψη, αλλά η Τεχνητή Νοημοσύνη μπορεί να απλοποιήσει την πιθανότητα να υπάρχει αντίκτυπος σε επίπεδο νοικοκυριών. Ανέφερε επίσης ότι απαιτείται αξιολόγηση των συστημάτων Τεχνητής Νοημοσύνης κάνοντας μνεία σε έρευνα που έγινε στη Νέα Ζηλανδία όπου εξετάστηκε ο αλγόριθμος στα δρομολόγια των λεωφορείων. «Εκεί προέκυψε ότι ήταν δυσμενής για κάποιες ηλικιακές ομάδες και κυρίως για τα παιδιά, καθώς απαιτούνταν ώρες για να πάνε στα σχολεία τους» διευκρίνισε.
amna
0 Σχόλια