To περιεχόμενο της AI αποτελεί ένα “καυτό” θέμα το τελευταίο διάστημα.
Μια ομάδα 10 εταιριών, συμπεριλαμβανομένων των OpenAI, TikTok, Adobe, BBC και της εφαρμογής γνωριμιών Bumble, έχουν εγγραφεί σε ένα νέο σύνολο οδηγιών σχετικά με τον τρόπο δημιουργίας και κοινής χρήσης περιεχομένου που δημιουργείται από AI με υπευθυνότητα.
Μεγαλύτερη διαφάνεια
Σύμφωνα με τις συστάσεις τόσο οι κατασκευαστές της τεχνολογίας, όπως το OpenAI, όσο και οι δημιουργοί και οι διανομείς ψηφιακά δημιουργημένων συνθετικών μέσων, όπως το BBC και το TikTok, οφείλουν να είναι πιο διαφανείς σχετικά με το τι μπορεί και τι δεν μπορεί να κάνει η τεχνολογία και να αποκαλύπτουν πότε μπορεί να αλληλεπιδρούμε με αυτό το είδος περιεχομένου.
Οι 10 εταιρίες που έκαναν την αρχή
Πρόκειται για εθελοντικές συστάσεις που συντάχθηκαν από την Partnership on AI (PAI), έναν μη κερδοσκοπικό οργανισμό έρευνας για την τεχνητή νοημοσύνη, σε διαβούλευση με περισσότερους από 50 οργανισμούς. Οι εταίροι του PAI περιλαμβάνουν μεγάλες εταιρίες τεχνολογίας, καθώς και ακαδημαϊκούς, οργανισμούς κ.α. Οι πρώτες 10 εταιρίες που δεσμεύονται για την καθοδήγηση είναι οι Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness και οι νεοσύστατες εταιρίες Synthesia, D-ID και Respeecher.
«Θέλουμε να διασφαλίσουμε ότι τα συνθετικά μέσα δεν χρησιμοποιούνται για να βλάψουν, να αποδυναμώσουν ή να αποσπάσουν δικαιώματα, αλλά για να υποστηρίξουν τη δημιουργικότητα, την ανταλλαγή γνώσης και τον σχολιασμό» αναφέρει χαρακτηριστικά η Claire Leibowicz, επικεφαλής της Τεχνητής Νοημοσύνης και της ακεραιότητας των μέσων της PAI.
Πότε αλληλεπιδρούμε με προϊόν ΑΙ;
Ένα από τα πιο σημαντικά στοιχεία των κατευθυντήριων γραμμών είναι μια συμφωνία από τις εταιρίες να συμπεριλάβουν και να ερευνήσουν τρόπους για να ενημερώνουν τους χρήστες πότε αλληλεπιδρούν με κάτι που έχει δημιουργηθεί από την τεχνητή νοημοσύνη. Αυτό μπορεί να περιλαμβάνει υδατογραφήματα ή δηλώσεις αποποίησης ευθύνης ή ανιχνεύσιμα στοιχεία σε δεδομένα εκπαίδευσης ή μετα-δεδομένα ενός μοντέλου τεχνητής νοημοσύνης.
Ο κανονισμός που προσπαθεί να περιορίσει τις πιθανές βλάβες που σχετίζονται με τη γενετική τεχνητή νοημοσύνη εξακολουθεί να υστερεί. Η ευαισθητοποίηση και η έναρξη μιας συζήτησης σχετικά με τους υπεύθυνους τρόπους σκέψης για τα συνθετικά μέσα είναι σημαντική, λέει ο Hany Farid, καθηγητής στο Πανεπιστήμιο της Καλιφόρνια, ο οποίος ερευνά τα συνθετικά μέσα και τα deepfakes. Ωστόσο, υπογραμμίζει ότι οι εθελοντικές κατευθυντήριες γραμμές και αρχές σπάνια λειτουργούν.
Τι γίνεται με τα deepfakes;
Ενώ εταιρίες όπως το OpenAI μπορούν να προσπαθήσουν να βάλουν προστατευτικά κιγκλιδώματα σε τεχνολογίες που δημιουργούν, όπως το ChatGPT και το DALL-E, άλλοι “παίκτες” που δεν αποτελούν μέρος της συμφωνίας, μπορεί να επιτρέπουν στους χρήστες να δημιουργήσουν ακατάλληλες εικόνες και deepfakes.
Πολύ σημαντικό είναι να περιλαμβάνονται περισσότερες λεπτομέρειες σχετικά με το πώς εκπαιδεύτηκε το μοντέλο τεχνητής νοημοσύνης, ποια δεδομένα εισήχθησαν σε αυτό και εάν τα μοντέλα παραγωγής τεχνητής νοημοσύνης έχουν προκαταλήψεις.
Οι οδηγίες δεν αναφέρουν τη διασφάλιση ότι δεν υπάρχει τοξικό περιεχόμενο στο σύνολο δεδομένων των μοντέλων τεχνητής νοημοσύνης. «Είναι ένας από τους πιο σημαντικούς τρόπους με τους οποίους προκαλείται βλάβη από αυτά τα συστήματα» επισημαίνει ο Daniel Leufer, ανώτερος αναλυτής πολιτικής στην ομάδα ψηφιακών δικαιωμάτων Access Now. Οι οδηγίες περιλαμβάνουν μια λίστα βλαβών που επιδιώκουν να αποτρέψουν αυτές οι εταιρίες, όπως η απάτη, η παρενόχληση και η παραπληροφόρηση.
info
Mε τον όρο “deepfakes” εννοούμε τα ψεύτικα βίντεο ή ηχητικά ντοκουμέντα, κυρίως με πρωταγωνιστές διάσημα πρόσωπα, τα οποία έχουν δημιουργηθεί από την τεχνητή νοημοσύνη. Χαρακτηριστικό είναι το παράδειγμα με το ψεύτικο βίντεο με τον Βολοντίμιρ Ζελένσκι να καλεί τους στρατιώτες της Ουκρανίας να καταθέσουν τα όπλα.