H τεχνητή νοημοσύνη συναντά το Photoshop

Η αμερικανική Adobe ανακοίνωσε ότι ενσωματώνει εργαλεία τεχνητής νοημοσύνης στο Photoshop.

Aυτό αποτελεί το πρώτο βήμα για την αναβάθμιση της σουίτας εφαρμογών Creative Cloud με την τεχνολογία γενετικής ΑI. Μάλιστα, εφαρμογές όπως το Dall-E της OpenΑΙ και το Midjourney δίνουν τη δυνατότητα ήδη στους χρήστες να δημιουργούν πρωτότυπες εικόνες περιγράφοντας το περιεχόμενο που επιθυμούν.

Τι θα γίνει με την πνευματική ιδιοκτησία

Η Adobe διαβεβαιώνει πως οι χρήστες του Photoshop δεν θα έχουν λόγο να ανησυχούν για  αγωγές για παραβίαση πνευματικής ιδιοκτησίας, δεδομένου ότι η τεχνολογία της, η Firefly, εκπαιδεύτηκε νόμιμα με εικόνες του Adobe Stock.

Αφού προηγήθηκαν δοκιμές περίπου έξι εβδομάδων, η εταιρία προσθέτει στο Photoshop νέα εργαλεία AI όπως το «Generative Fill», το οποίο επιτρέπει στον χρήστη να επεκτείνει πολύ κροπαρισμένα αρχεία και να εισαγάγει εικόνες περιγράφοντάς τις.

Πού αποσκοπεί η Adobe;

Όπως δήλωσε ο ο Ίλαϊ Γκρίνφιλντ, διευθυντής τεχνολογίας ψηφιακών μέσων στην Adobe, πρόθεση της Adobe δεν είναι να καταργήσει τους γραφίστες αλλά να τους διευκολύνει στη δημιουργία νέων εικόνων. «Επιταχύνει δραματικά την παραγωγική διαδικασία» είπε χαρακτηριστικά ο Γκρίνφιλντ.

Η αρχή έγινε…

To Photoshop διαθέτει ήδη ορισμένα εργαλεία τεχνητής νοημοσύνης, όπως το εργαλείο που επιλέγει αντικείμενα και τα απομονώνει από το φόντο, κι έτσι ο χρήστης δεν χρειάζεται να ασχοληθεί με το “ξεγύρισμα”.

Διαθέτει ακόμη «νευρωνικά φίλτρα», που επιλέγουν αυτόματα τα μάτια, τα μαλλιά ή τα φρύδια των εικονιζόμενων, και μπορεί να αλλάξει την ηλικία τους, αλλά ακόμα και την κατεύθυνση του βλέμματός τους!

Τι προβλέπει η νομοθεσία για την Τεχνητή Νοημοσύνη

Ο νέος ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη αφού εγκρίθηκε από την επιτροπή νομοθετών -όπως όλα δείχνουν- θα γίνει ευρωπαϊκός νόμος.

Ο νόμος, γνωστός ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη (AI Act), είναι ο πρώτος νόμος που αφορά στα συστήματα Τεχνητής Νοημοσύνης στη Δύση.

Τα 4 επίπεδα κινδύνου

Ο νόμος για την Τεχνητή Νοημοσύνη κατηγοριοποιεί τις εφαρμογές της σε τέσσερα επίπεδα κινδύνου: μη αποδεκτός κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή μηδενικός κίνδυνος.
Οι εφαρμογές μη αποδεκτού κινδύνου απαγορεύονται και δεν μπορούν να αναπτυχθούν στην Ευρωπαϊκή Ένωση.

Στόχος των προτάσεων της ΕΕ είναι να παράσχει κανόνες συμπεριφοράς για τις εταιρίες και τους οργανισμούς που χρησιμοποιούν τεχνητή νοημοσύνη. Ωστόσο, υπάρχουν και αντιδράσεις. Ο Σύνδεσμος Βιομηχανίας Υπολογιστών και Επικοινωνιών ανησυχεί ότι το πεδίο εφαρμογής του νόμου για την Τεχνητή Νοημοσύνη έχει διευρυνθεί υπερβολικά και ότι μπορεί να συλλάβει μορφές Τεχνητής Νοημοσύνης που δεν επιφέρουν κινδύνους.

Η Sarah Chander, ανώτερη σύμβουλος πολιτικής στην European Digital Rights – ομάδα εκστρατείας για τα ψηφιακά δικαιώματα με έδρα τις Βρυξέλλες – επισήμανε ότι οι νόμοι θα απαιτούν από τα ιδρυτικά μοντέλα να «υποβάλλονται σε δοκιμές, απαιτήσεις τεκμηρίωσης και διαφάνειας».