Η τεχνητή νοημοσύνη αποτελεί τεράστιο σημείο καμπής για πολλές ευρωπαϊκές βιομηχανίες (αυτοκινητοβιομηχανία, χρηματοοικονομικά, άμυνα κ.λπ.) και για την κοινωνία των πολιτών στο σύνολό της. Αναπτύσσεται με την αναγνώριση εικόνων και τα νευρωνικά δίκτυα (deep-learning).

Τα δίκτυα αυτά ωστόσο αποτελούν «μαύρα κουτιά», για τα οποία δεν υπάρχει σήμερα τυποποιημένη διαδικασία που θα διασφάλιζε την απουσία μεροληψίας ή την καλή λειτουργία τους. Ωστόσο, αυτή η τυποποίηση είναι αναγκαία για να καταστεί δυνατή η χρήση της τεχνητής νοημοσύνης σε κρίσιμα συστήματα (μη επανδρωμένα αεροσκάφη, αυτοκίνητα κ.λπ.).

Σήμερα, χώρες όπως οι Ηνωμένες Πολιτείες και η Κίνα προχωρούν με ταχύ ρυθμό για να δημιουργήσουν τα δικά τους πρότυπα, πράγμα που θα μπορούσε να βλάψει τις ευρωπαϊκές επιχειρήσεις και τους Ευρωπαίους πολίτες, οι οποίοι κινδυνεύουν να προστατεύονται λιγότερο.

Έχει η Επιτροπή γνώση του προβλήματος που περιγράφεται ανωτέρω;

Με ποιον τρόπο προτίθεται η Επιτροπή να υπερασπιστεί τα συμφέροντα τόσο των επιχειρήσεων που αναπτύσσουν συστήματα τεχνητής νοημοσύνης, όσο και των χρηστών τους (δημόσιων και ιδιωτικών);

Ποια είναι η άποψη της Επιτροπής σχετικά με την ισορροπία μεταξύ του δικαιώματος στον πειραματισμό και της ρύθμισης των χρήσεων της τεχνητής νοημοσύνης;