Η τεχνητή νοημοσύνη στον τομέα των τηλεπικοινωνιών: Η Δήλωση της 16ης Δεκεμβρίου 2025

0
128
Με κοινή Δήλωση που δημοσιοποιήθηκε στις 16 Δεκεμβρίου 2025, οι Ευρωπαίοι Κοινωνικοί Εταίροι του τομέα των τηλεπικοινωνιών – UNI Europa ICTS και Connect Europe – ανέδειξαν την ανάγκη η υιοθέτηση της τεχνητής νοημοσύνης να πραγματοποιείται βάσει κριτηρίων που υπερβαίνουν την τεχνολογική αποδοτικότητα, ενσωματώνοντας αρχές ηθικής, ισότητας και κοινωνικής βιωσιμότητας.

Η Δήλωση εστιάζει, ιδίως, στις δυνητικές επιπτώσεις της τεχνητής νοημοσύνης στην υγεία και ασφάλεια στην εργασία, στην αρχή της ίσης μεταχείρισης και της μη διάκρισης, καθώς και στην προστασία της ανθρώπινης αξιοπρέπειας και των θεμελιωδών δικαιωμάτων των εργαζομένων, εντάσσοντας την τεχνολογική καινοτομία σε ένα ευρύτερο πλαίσιο προβληματισμού για τις συνθήκες και την οργάνωση της εργασίας.

Η κοινή αυτή Δήλωση, η οποία υπογράφηκε στις 13 Νοεμβρίου 2025, εντάσσεται στο θεσμικό πλαίσιο του ευρωπαϊκού κοινωνικού διαλόγου σε κλαδικό επίπεδο και αποκτά ιδιαίτερη σημασία σε μια συγκυρία που χαρακτηρίζεται τόσο από την έναρξη ισχύος – και τις πρώτες τροποποιήσεις – του Κανονισμού για την Τεχνητή Νοημοσύνη (AI Act, Κανονισμός (ΕΕ) 2024/1689), όσο και από την επιτάχυνση των διαδικασιών ψηφιοποίησης στις επιχειρήσεις του τομέα των επικοινωνιών.

Η εν λόγω πρωτοβουλία δεν αναπτύσσεται σε κανονιστικό ή διαπραγματευτικό κενό. Ήδη από το 2020, οι Ευρωπαίοι Κοινωνικοί Εταίροι του κλάδου είχαν υιοθετήσει κοινή δήλωση σχετικά με την τεχνητή νοημοσύνη, στην οποία διατυπώνονταν θεμελιώδεις κατευθυντήριες αρχές, όπως η προσέγγιση human-in-command, η κεντρικότητα του κοινωνικού διαλόγου, η σημασία της ανάπτυξης δεξιοτήτων και η προστασία των θεμελιωδών δικαιωμάτων. Η πρωτοβουλία αυτή ανέδειξε την πρόωρη και συστηματική ενασχόληση του κλάδου με τις επιπτώσεις του ψηφιακού μετασχηματισμού. Η δήλωση του 2025 εγγράφεται σε αυτή τη συνέχεια, επικαιροποιώντας ωστόσο το περιεχόμενο και τις προτεραιότητές της υπό το πρίσμα της τεχνολογικής ωρίμανσης των συστημάτων τεχνητής νοημοσύνης και της ενίσχυσης του ευρωπαϊκού ρυθμιστικού πλαισίου.

Παρά την αναγνώριση του αναπτυξιακού δυναμικού της τεχνητής νοημοσύνης ως προς την καινοτομία, την παραγωγικότητα και την ανταγωνιστικότητα του τομέα, οι Κοινωνικοί Εταίροι απορρίπτουν μια μονοδιάστατη προσέγγιση που περιορίζεται σε επενδυτικά και αποδοτικά μεγέθη. Μια τέτοια προσέγγιση κρίνεται ανεπαρκής για τη διασφάλιση μιας κοινωνικά αποδεκτής και βιώσιμης διάχυσης της τεχνητής νοημοσύνης. Αντιθέτως, η υιοθέτηση των νέων τεχνολογιών εντάσσεται σε ένα πολυεπίπεδο κανονιστικό και αξιακό πλαίσιο, το οποίο περιλαμβάνει τον σεβασμό των θεμελιωδών δικαιωμάτων, τη συμμόρφωση προς την ευρωπαϊκή νομοθεσία για την προστασία των δεδομένων προσωπικού χαρακτήρα και την τήρηση ηθικών αρχών που διέπουν τη χρήση αυτοματοποιημένων συστημάτων στους χώρους εργασίας. Το πλαίσιο αυτό αντλείται από βασικά νομοθετήματα της Ένωσης, όπως ο Γενικός Κανονισμός για την Προστασία Δεδομένων (ΓΚΠΔ), η Οδηγία για την εργασία μέσω ψηφιακών πλατφορμών, καθώς και οι Οδηγίες για την υγεία και την ασφάλεια στην εργασία. Επιπλέον, είναι πιθανό να ενισχυθεί περαιτέρω, λαμβανομένης υπόψη της πρόσφατης πρωτοβουλίας του Ευρωπαϊκού Κοινοβουλίου για τη συμπληρωματική ρύθμιση της χρήσης αλγοριθμικών συστημάτων, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, στο εργασιακό περιβάλλον, μέσω σχετικής νομοθετικής δράσης της Ευρωπαϊκής Επιτροπής.

Κεντρική θέση στο κείμενο καταλαμβάνει η αρχή του human-in-command, η οποία, αν και είχε ήδη εισαχθεί στη δήλωση του 2020, επαναπροσδιορίζεται και ενισχύεται υπό το φως των πρόσφατων εξελίξεων στον τομέα της τεχνητής νοημοσύνης, ιδίως σε σχέση με προηγμένα συστήματα λήψης αποφάσεων και γενετικές εφαρμογές. Η αρχή αυτή, η οποία έχει ήδη υιοθετηθεί και σε διατομεακό επίπεδο στο Πλαίσιο Συμφωνίας για την Ψηφιοποίηση (2020), υπογραμμίζει την ανάγκη διατήρησης ουσιαστικού ανθρώπινου ελέγχου επί των συστημάτων τεχνητής νοημοσύνης, ιδίως όταν αυτά επηρεάζουν αποφάσεις με σημαντικές συνέπειες για τους εργαζομένους. Στο πλαίσιο αυτό, η δήλωση επισημαίνει την ανάγκη πρόληψης καταχρηστικών πρακτικών, αλγοριθμικών διακρίσεων και μορφών υπέρμετρης επιτήρησης, τονίζοντας ότι η εισαγωγή νέων τεχνολογιών στους χώρους εργασίας προϋποθέτει την ενίσχυση των μηχανισμών κοινωνικού διαλόγου και συλλογικής διαπραγμάτευσης.

Ιδιαίτερη έμφαση αποδίδεται, επίσης, στα ζητήματα διακυβέρνησης των δεδομένων και διαφάνειας των αυτοματοποιημένων διαδικασιών λήψης αποφάσεων, τα οποία επανεξετάζονται υπό το πρίσμα των νέων υποχρεώσεων που εισάγει ο AI Act. Η συγκρότηση ενός «οικοσυστήματος εμπιστοσύνης» αναγνωρίζεται ως αναγκαία προϋπόθεση για τη θεμιτή και αποτελεσματική αξιοποίηση της τεχνητής νοημοσύνης, με ρητή αναφορά στη συμμόρφωση προς τον ΓΚΠΔ και τις εγγυήσεις του ενωσιακού δικαίου. Ιδίως στον τομέα της διαχείρισης ανθρώπινου δυναμικού, η χρήση αλγοριθμικών συστημάτων εκτιμάται ότι ενέχει αυξημένους κινδύνους, δεδομένου ότι οι σχετικές αποφάσεις μπορούν να επηρεάσουν άμεσα τις επαγγελματικές διαδρομές των εργαζομένων, με ενδεχόμενες επιπτώσεις στην υγεία, στην εντατικοποίηση της εργασίας και στην ίση μεταχείριση. Για τον λόγο αυτό, αναδεικνύεται η ανάγκη ύπαρξης σαφών μηχανισμών λογοδοσίας, δυνατότητας κατανόησης των υποκείμενων λογικών λήψης αποφάσεων και αποτελεσματικών εργαλείων διόρθωσης ανεπιθύμητων αποτελεσμάτων.

Πέραν των εγγυήσεων προστασίας, η Δήλωση αναδεικνύει με έμφαση το ζήτημα των δεξιοτήτων, αναγνωρίζοντας ότι η τεχνητή νοημοσύνη δεν περιορίζεται στην αυτοματοποίηση επιμέρους εργασιακών καθηκόντων, αλλά συμβάλλει στον συνολικό μετασχηματισμό της οργάνωσης της εργασίας, επηρεάζοντας ρόλους, δομές λήψης αποφάσεων και πρότυπα συντονισμού. Σε συνέχεια της προσέγγισης του 2020, το κείμενο υπογραμμίζει την ανάγκη ανάπτυξης συνεκτικών πολιτικών επανεκπαίδευσης (reskilling) και αναβάθμισης δεξιοτήτων (upskilling), καθώς και την κατανομή σχετικής ευθύνης μεταξύ επιχειρήσεων, εργαζομένων και δημόσιων θεσμών. Ο κοινωνικός διάλογος αναγνωρίζεται εκ νέου ως βασικό εργαλείο για τη διαχείριση των μεταβάσεων στην απασχόληση και την αποτροπή φαινομένων κοινωνικού και επαγγελματικού αποκλεισμού.

Παρότι η κοινή Δήλωση του 2025 έχει προγραμματικό και μη δεσμευτικό χαρακτήρα, η συστηματική αναφορά στη συλλογική διαπραγμάτευση, στα πολλαπλά επίπεδα του κοινωνικού διαλόγου και στην ανάγκη διαμόρφωσης κοινών κανόνων υποδηλώνει τη δυνατότητα σταδιακής ενσωμάτωσης των αρχών της σε περισσότερο δεσμευτικά κανονιστικά ή συμβατικά εργαλεία. Η τάση αυτή επιβεβαιώνεται από τις αυξανόμενες εμπειρίες συλλογικής ρύθμισης της χρήσης της τεχνητής νοημοσύνης και των αλγοριθμικών συστημάτων στον τομέα των τηλεπικοινωνιών, τόσο σε ευρωπαϊκό όσο και σε εθνικό επίπεδο.

Υπό αυτή την έννοια, η Δήλωση της 16ης Δεκεμβρίου 2025 μπορεί να ερμηνευθεί ως έκφραση της ώριμης και διαρθρωμένης προσέγγισης ενός κλάδου που επιχειρεί να εδραιώσει ένα κοινό ευρωπαϊκό πλαίσιο αρχών για τη διακυβέρνηση της τεχνητής νοημοσύνης στην εργασία. Η αποτελεσματική υλοποίηση των εν λόγω κατευθύνσεων επαφίεται, ωστόσο, στην ικανότητα των κοινωνικών εταίρων, σε εθνικό και επιχειρησιακό επίπεδο, να τις μετουσιώσουν σε συγκεκριμένες συλλογικές ρυθμίσεις με ουσιαστικό αντίκτυπο στις οργανωτικές πρακτικές και στην εργασιακή εμπειρία σε περιβάλλοντα υψηλής τεχνολογικής έντασης.

Άρθρο των Diletta Porcheddu και Margherita Roiatti με τίτλο L’intelligenza artificiale nelle telecomunicazioni tra regolazione europea e dialogo sociale” (ελλ. τίτλος: Η τεχνητή νοημοσύνη στις τηλεπικοινωνίες: μεταξύ ευρωπαϊκής ρυθμιστικής παρέμβασης και κοινωνικού διαλόγου), δημοσιευμένο στην ιστοσελίδα του Bollettino ADAPT:

https://www.bollettinoadapt.it/lintelligenza-artificiale-nelle-telecomunicazioni-tra-regolazione-europea-e-dialogo-sociale/