Δορυφορικα Δημοσίευσε 22, Ιανουαρίου 2020 Αναφορά Δημοσίευσε 22, Ιανουαρίου 2020 Το AI έχει εισχωρήσει σε πολλούς τομείς της καθημερινότητάς μας, προσφέροντας σημαντική βοήθεια στους ανθρώπους. Τι συμβαίνει, όμως, όταν η τεχνητή νοημοσύνη (AI) χρησιμοποιείται σε σημαντικά θέματα, όπως στη δικαιοσύνη; Η χρήση ενός αλγορίθμου για τον καθορισμό των όρων κηδεμονίας ενός παιδιού δεν είναι το ίδιο με το να σας προτείνει το Netflix ποια ταινία να παρακολουθήσετε. Το AI και η αυτοματοποίηση κατέχουν ήδη σημαντικό ρόλο στο αμερικανικό νομικό σύστημα. Την προηγούμενη εβδομάδα, έλαβε χώρα ένα συνέδριο στο Πόρτλαντ, όπου συγκεντρώθηκαν επαγγελματίες νομικοί από όλη τη χώρα για να εξετάσουν τον τρόπο με τον οποίο μπορούν να εκσυγχρονίσουν τα συστήματά τους. Ένα από τα θέματα συζήτησης ήταν σε ποιο βαθμό πρέπει να χρησιμοποιείται το AI. Ο Alan Carlson, συνταξιούχος δικαστικός, δήλωσε ότι δεν πρέπει να χρησιμοποιούμε κάτι μόνο και μόνο επειδή μπορούμε. Πριν από την υιοθέτηση νέων τεχνολογιών, αξίζει να αναρωτηθούμε: “Χρειαζόμαστε πραγματικά το AI”; Η αυτοματοποίηση χρησιμοποιείται ήδη στα δικαστήρια και μπορεί να είναι πολύ αποτελεσματική. Για παράδειγμα, μπορεί να καταστήσει το σύστημα δικαιοσύνης πιο προσπελάσιμο για τους ανθρώπους που δεν έχουν την οικονομική δυνατότητα να προσλάβουν ένα δικηγόρο. Για παράδειγμα, στο ανώτατο δικαστήριο του Λος Άντζελες, υπάρχει η Gina, ένας online assistant που βοηθά τους κατοίκους να τακτοποιήσουν κλήσεις που έχουν λάβει από την τροχαία. Η Gina γνωρίζει πέντε γλώσσες και βοηθά περισσότερους από 5.000 πελάτες το μήνα. Η Gina δεν είναι αυτό ακριβώς που ονομάζουμε AI. Είναι προγραμματισμένη να επεξεργάζεται συγκεκριμένα στοιχεία. Παρ’ όλα αυτά, έθεσε τις βάσεις για πιο εξελιγμένη αυτοματοποίηση στα δικαστήρια. Σύμφωνα με πληροφορίες, το Λος Άντζελες ετοιμάζει ένα νέο AI project, το Jury Chat Bot. Στηρίζεται στην πλατφόρμα Microsoft Cognitive Services και αξιοποιεί δυνατότητες όπως κατανόηση της φυσικής γλώσσας, υπηρεσίες μετάφρασης κλπ. Αρχικά, το bot θα “εκπαιδευτεί” σε συγκεκριμένα χαρακτηριστικά και ενέργειες και στη συνέχεια θα προστεθούν και άλλα. Εν τω μεταξύ, άλλα δικαστήρια στις ΗΠΑ υιοθετούν πρωτοβουλίες ηλεκτρονικής επίλυσης διαφορών (ODR) για την αντιμετώπιση διαφόρων συγκρούσεων. Αυτά τα συστήματα βοηθούν σε περιπτώσεις που οι δύο αντίπαλες πλευρές βρίσκονται σε αδιέξοδο και δεν βρίσκουν λύση. Αυτό μοιάζει με “ψηφιακό δικαστή“. Ωστόσο, οι ειδικοί υποστηρίζουν ότι “Δεν πρόκειται για τη δημιουργία ενός ψηφιακού εγκεφάλου”. Οι δικαστικοί υποστηρίζουν ότι δεν θέλουν απλά να χρησιμοποιήσουν την τεχνολογία, αλλά θέλουν να δουν πώς μπορεί να χρησιμοποιηθεί η τεχνολογία για να βοηθήσει. Για να εφαρμοστεί στο δικαστικό σύστημα, πρέπει να υπάρχει εμπιστοσύνη στη σχετική τεχνολογία. Έχουν ήδη υπάρξει αντιρρήσεις σχετικά με τη χρήση του AI στον καθορισμό της ποινής ή του χρόνου έκτισης της ποινής. Για την εφαρμογή του ODR χρειάστηκε χρόνος. Το σύστημα ODR προχώρησε σταδιακά, ξεκινώντας σαν “παρατηρητής” και μαθαίνοντας πώς να επιλύει καλύτερα τις διαφορές. Η σταδιακή ανάπτυξή του βοήθησε στην οικοδόμηση ενός ποιοτικού συστήματος που εμπνέει εμπιστοσύνη στους πελάτες. Οι συμμετέχοντες στο συνέδριο δήλωσαν ότι είναι σχετικά εύκολο να δημιουργηθεί ένα AI σύστημα που να προσφέρει καλύτερα αποτελέσματα από ό, τι οι άνθρωποι. Οι άνθρωποι συχνά έχουν προκαταλήψεις, οι οποίες επηρεάζουν σε ένα βαθμό τις αποφάσεις που παίρνουν. Σε λίγα χρόνια, όταν η τεχνολογία θα αποτελεί βασικό στοιχείο της δικαιοσύνης, θα μας φαίνεται ότι η “ανθρώπινη περίοδος” των δικαστηρίων δεν ήταν πολύ αντικειμενική. Ωστόσο, το ιδανικό θα ήταν να συνδυαστεί το ανθρώπινο και το τεχνολογικό στοιχείο. Οι δικαστικοί δεν θα πρέπει να αντικατασταθούν από το AI, ούτε η τεχνολογία να μείνει εκτός. Η δικαστής Wendy Chang του ανώτατου δικαστηρίου του L.A. εξέφρασε κάποιες επιφυλάξεις σχετικά με τα αυτοματοποιημένα συστήματα. “Αν ένα αυτοματοποιημένο σύστημα βγάζει την απόφασή του με βάση τις πληροφορίες που λαμβάνει, πώς θα το εκπαιδεύσουμε ώστε να λάβει υπόψη και άλλους παράγοντες; Για μένα κάποια πράγματα είναι πολύ υποκειμενικά, έχουν να κάνουν με τη στιγμή”. Για παράδειγμα, η Chang είπε: “Αν ντρέπονται ή φοβούνται, θα αρχίσω να τους κάνω ερωτήσεις και μπορεί να φτάσουμε σε ένα τελείως διαφορετικό αποτέλεσμα”. Εάν τα δικαστήρια αποφασίσουν να ενσωματώσουν το AI, θα πρέπει να το κάνουν μεθοδικά και να λάβουν υπόψη όλους τους κινδύνους, που μπορεί να υπάρχουν. Αρχικά, πρέπει να υπάρχουν συγκεκριμένοι στόχοι. Το AI πρέπει να χρησιμοποιείται μόνο για το σκοπό για τον οποίο δημιουργήθηκε. Για παράδειγμα, ένα εργαλείο που προβλέπει αν θα εμφανιστεί κάποιος στο δικαστήριο δεν θα πρέπει να χρησιμοποιείται για να προβλέψει αν κάποιος θα διαπράξει ένα έγκλημα. Οι περισσότεροι δικαστικοί και οι ειδικοί καταλήγουν στο ότι πρέπει να υπάρχει μια ισορροπία και στο ότι πρέπει να γίνουν αντιληπτά τα όρια μεταξύ τεχνολογίας και ανθρώπου. How useful was this post? Submit Rating Average rating / 5. Vote count: No votes so far! Be the first to rate this post. Let's block ads! (Why?)Πηγή Είδησης
Recommended Posts
Δημιουργήστε έναν λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε ένα σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε για έναν νέο λογαριασμό στην κοινότητά μας.
Δημιουργία νέου λογαριασμούΣυνδεθείτε
Έχετε ήδη λογαριασμό? Συνδεθείτε εδώ.
Συνδεθείτε τώρα