«ΔΙΟΠΑΝΕΙΑ 2024» 21-22 ΚΑΙ 23 ΙΟΥΝΙΟΥ ΣΤΗΝ ΑΡΚΑΔΙΑ

diopa 970x250

Aνησυχίες για την τεχνητή νοημοσύνη - Οι φόβοι αντικατάστασης του ανθρώπου

Αν έπρεπε να ορίσει κανείς την πρόοδο της τεχνητής νοημοσύνης, θα έλεγε ότι πρόκειται για την τεχνολογία όπου μηχανές σκέπτονται και δρουν σαν άνθρωποι, συχνά πολύ πιο αποτελεσματικά και γρήγορα. Έχει εισέλθει στη ζωή μας και αλληλεπιδρούμε μαζί της. Η εφαρμογή της είναι πιο έντονη στα μέσα κοινωνικής δικτύωσης. Οι αλληλεπιδράσεις που έχουμε με άλλους χρήστες διαμορφώνουν τον αλγόριθμο κατά τέτοιο τρόπο, ώστε να καταλήγουμε να βλέπουμε πιο συχνά αυτά που μας ενδιαφέρουν, ή που ο αλγόριθμος “νομίζει” ότι μας ενδιαφέρουν, επειδή ανοίξαμε κάποιες σελίδες.

Σύντομα, η τεχνητή νοημοσύνη αναμένεται να κυριαρχήσει. Θα έχει παρουσία σε όλους τους τομείς, συμβάλοντας θετικά, από την υγεία έως τη γεωργία και από την ασφάλεια έως τη μεταποίηση. Μεταξύ άλλων, δημιουργεί και οπτικό περιεχόμενο. Το σύστημα τεχνητής νοημοσύνης που ανέπτυξε η εταιρεία του Έλον Μάσκ δημιούργησε ένα θεατρικό έργο (ολόκληρο το κείμενο) μελετώντας χιλιάδες θεατρικά κείμενα. Ένας αλγόριθμος τεχνητής νοημοσύνης στο Ισραήλ έχει εκπαιδευτεί, βλέποντας οπτικό υλικό όπως παλιά βίντεο και φωτογραφίες, να ζωντανεύει ανθρώπους που δεν υπάρχουν πλέον στη ζωή. Υπολογιστές δημιούργησαν νέα πορτρέτα, τα οποία ήταν έτσι σχεδιασμένα ώστε να είναι ελκυστικά, σε προσωπικό επίπεδο, σε αυτούς που τα έβλεπαν.

Ερευνητές από τα πανεπιστήμια του Ελσίνκι και της Κοπεγχάγης απέδειξαν ότι ένας υπολογιστής είναι σε θέση να βρει τα χαρακτηριστικά προσώπου που θεωρεί κάποιος ελκυστικά και, με βάση αυτά, να δημιουργήσει νέες εικόνες που ταιριάζουν στα κριτήριά του. Τεράστιες εταιρείες αφήνουν την αξιολόγηση βιογραφικών για θέσεις εργασίας στους υπολογιστές. Έχουν υπάρξει, μάλιστα, καταγγελίες ότι το σύστημα ταυτοποίησης της Uber, το οποίο βασίζεται στους υπολογιστές είναι άκρως ρατσιστικό! Το λογισμικό αδυνατούσε να αναγνωρίσει και να επαληθεύσει σκουρόχρωμα πρόσωπα, απορρίπτοντας τέτοιους υποψήφιους πελάτες.

Πόσο ασφαλείς είμαστε όταν οι υπολογιστές επιλύουν προβλήματα με αυτονομία, μιμούμενοι όχι μόνο την ανθρώπινη ικανότητα μάθησης, αλλά και τους ίδιους τους ανθρώπους; Όταν συλλέγουν στοιχεία, δημιουργούν τα άβαταρ τους, αφαιρώντας από την εξίσωση τη μεταβλητή του ανθρώπινου παράγοντα. Πρωτίστως, τίθεται ζήτημα αξιοπιστίας. Μπορεί να κατευθύνει το κοινό που δεν διακρίνει το αληθινό από το κατασκευασμένο. Πλήττεται η ακεραιότητα και η αμεροληψία κάθε πληροφορίας, η οποία μπορεί να είναι κατασκευασμένη από τους διαχειριστές του συστήματος για ίδιον όφελος. Έχουν ήδη υπάρξει θύματα των deepfakes στα σόσιαλ μίντια, γυναίκες που ερήμην τους πρωταγωνίστησαν σε ερωτικά βίντεο. Αυτό σημαίνει ότι ένας εντυπωσιακός όγκος πληροφορίας για κάθε έναν από εμάς υπάρχει διαθέσιμος και μπορεί να στραφεί εναντίον μας με αυτό τον τρόπο. Ένας αλγόριθμος, δηλαδή, στοχεύει έναν άνθρωπο. Μέσω των φωτογραφιών και των βίντεο (για να δημιουργηθεί ένα deepfake βίντεο απαιτούνται πολλές φωτογραφίες του προσώπου που θέλει κανείς να μιμηθεί) υποκλέπτει λήψεις από διαφορετικές γωνίες και μιμείται τη συμπεριφορά και τον τρόπο ομιλίας του. Υποκλέπτει, δηλαδή, την ταυτότητά του.

Κι αν γίνει ένα παντοδύναμο πολιτικό εργαλείο;

Ένα βίντεο, στο οποίο μια ηγετική προσωπικότητα ανακοινώνει μια ψεύτικη είδηση, μπορεί να επιφέρει πλήγμα στην παγκόσμια οικονομία και να επηρεάσει εκατομμύρια ανθρώπους. Από τον Δεκέμβριο 2018, ο αριθμός των deepfakes στο Διαδίκτυο διπλασιάζεται περίπου κάθε έξι μήνες. Η ραγδαία αυτή αύξηση δεν αναμένεται να σταματήσει. Οι ειδικοί παραδέχονται τον επικείμενο κίνδυνο. Υποστηρίζουν ότι οι ειδήμονες μπορεί να εντοπίσουν τα τεχνικά προβλήματα σε τέτοια βίντεο. Αυτό, όμως, δεν αλλάζει το γεγονός ότι ο απλός χρήστης δεν μπορεί.

Διαβάστε περισσότερα...

Πρεμιέρα για θεατρικό έργο τεχνητής νοημοσύνης, στο οποίο τίποτε δεν θυμίζει τέχνη

Το κείμενο δημιουργήθηκε από το σύστημα τεχνητής νοημοσύνης GPT-2, που ανέπτυξε η εταιρεία OpenAI του Αμερικανού Ίλον Μασκ (Space X και Tesla). Το "έξυπνο" σύστημα έχει σχεδιαστεί ώστε να παράγει κείμενα με βάση τον τεράστιο όγκο πληροφοριών που είναι διαθέσιμες στο Ίντερνετ. Η ίδια τεχνολογία έχει χρησιμοποιηθεί για να παράγει ψευδείς (fake) ειδήσεις, μικρές ιστορίες και ποιήματα. Τώρα, έγραψε και το πρώτο θεατρικό έργο.

Οι Τσέχοι ερευνητές έδωσαν αρχικά στο GPT-2 δύο προτάσεις διαλόγου, από τις οποίες το σύστημα τεχνητής νοημοσύνης "πιάστηκε" για να προσθέσει έξτρα κείμενο. Μετά από μερικές προτάσεις, το λογισμικό αρχίζει να γράφει πράγματα που δεν ακολουθούν πάντα με λογικό τρόπο την πλοκή, φθάνοντας στο σημείο κάποιες στιγμές να ξεχνά ακόμη και ότι ο πρωταγωνιστής είναι ρομπότ και όχι άνθρωπος ή στη μέση ενός διαλόγου να μετατρέπει έναν άνδρα σε γυναίκα.

Τα προβλήματα αυτά οφείλονται στο ότι το πρόγραμμα τεχνητής νοημοσύνης αδυνατεί να κατανοήσει πραγματικά το νόημα των προτάσεων. Απλώς συνδυάζει λέξεις που έχει ανακαλύψει ότι συχνά χρησιμοποιούνται μαζί. Όσο μεγαλώνει το κείμενο που γράφει, τόσο αυξάνει και η πιθανότητα να λέει ανοησίες.

Για να μειώσουν αυτή την πιθανότητα, οι Τσέχοι ερευνητές έσπασαν το θεατρικό έργο σε οκτώ σκηνές, κάθε μία από τις οποίες περιείχε ένα διάλογο ανάμεσα σε δύο χαρακτήρες. Επιπλέον, κατέφυγαν σε μερικές "λαθροχειρίες", διορθώνοντας π.χ. το φύλο του πρωταγωνιστή, όταν το λογισμικό το είχε ξαφνικά αλλάξει στη μέση μιας πρότασης.

Οι θεατές μάλον δεν θα εκτιμήσουν το χιούμορ του "έξυπνου" συστήματος. Ενδεικτικά, σε μια σκηνή ένα αγόρι ζητάει από το ρομπότ να του πει ένα αστείο και αυτό απαντά πως όταν το αγόρι γεράσει και πεθάνει, όταν τα παιδιά και τα εγγόνια του αγοριού θα έχουν επίσης πεθάνει, το ίδιο το ρομπότ θα συνεχίσει να υπάρχει. Οι περισσότεροι θεατές μάλλον θα ανατριχιάσουν παρά θα γελάσουν...

Επιπλέον, η τεχνητή νοημοσύνη έχει στο γράψιμο της μια κάπως σουρεαλιστική ροπή στο σεξ και στη βία. Για παράδειγμα, σε μια σκηνή η αρχική συζήτηση για την ευθανασία καταλήγει σε μια διαμάχη ανάμεσα στους δύο πρωταγωνιστές σχετικά με το ποιος έχει βάλει το δάκτυλό του στον πρωκτό του άλλου..

Εάν αυτό είναι κάποιο είδος εξέλιξης στον χώρο των τεχνών, τότε δεν θα πάρουμε αφού τίποτα απο όλα αυτά δεν μπορεί να υπάρξει χωρίς τον ανθρώπινο παράγοντα.

Διαβάστε περισσότερα...
Συνδρομή σε αυτήν την τροφοδοσία RSS

ΕΛΛΑΔΑ

ESTIA TV

Links

ΚΑΝΑΛΙ

ΠΟΛΙΤΙΣΜΟΣ