← Πίσω στο Blog

Η υπεύθυνη AI είναι πρόβλημα προμηθειών, όχι φιλοσοφίας

ai προμήθειες διακυβέρνηση συμμόρφωση προμηθευτές
Η υπεύθυνη AI είναι πρόβλημα προμηθειών, όχι φιλοσοφίας

Κάθε σοβαρή εταιρεία έχει πλέον ένα έγγραφο αρχών AI. Τα περισσότερα λένε περίπου τα ίδια: ανθρώπινη εποπτεία, διαφάνεια, δικαιοσύνη, ιδιωτικότητα, λογοδοσία. Τα έγγραφα είναι μια χαρά. Τα έγγραφα από μόνα τους, όμως, δεν κάνουν σχεδόν τίποτα.

Οι τελευταίοι δώδεκα μήνες το έκαναν φανερό. Υπόθεση μετά υπόθεση, όπου μια εγκατάσταση AI πήγε στραβά το 2025, το έγγραφο αρχών υπήρχε. Αυτό που έλειπε ήταν ανάντη: στη σύμβαση προμηθευτή, στο DPA, στη checklist προμηθειών από την οποία το AI εργαλείο πέρασε αβρόχοις ποσί, γιατί κανείς δεν την είχε αναπροσαρμόσει στο τι κάνουν πράγματι διαφορετικά οι πάροχοι AI.

Η υπεύθυνη AI είναι πρόβλημα προμηθειών. Αν οι συμβάσεις σας δεν την κάνουν συγκεκριμένη, οι αρχές σας δεν την κάνουν αληθινή.

Πώς μοιάζει το κενό

Ο κλασικός έλεγχος προμηθειών SaaS εξελίχθηκε σε είκοσι χρόνια για συγκεκριμένη κατηγορία ρίσκου: ένας προμηθευτής αποθηκεύει τα δεδομένα σας, τα αγγίζει περιστασιακά για να παρέχει υπηρεσία, και είναι υπόλογος για παραβιάσεις ασφαλείας. Οι συμβάσεις και τα DPAs το αντικατοπτρίζουν.

Οι πάροχοι AI σπάνε πολλές παραδοχές αυτού του μοντέλου ταυτόχρονα:

  • Στέλνουν τα δεδομένα σας σε τρίτους παρόχους μοντέλων (που μπορεί να είναι σε άλλες δικαιοδοσίες).
  • Μπορεί να εκπαιδεύουν πάνω στα δεδομένα σας, εκτός αν ρητά αρνηθείτε.
  • Παράγουν εξόδους που μπορούν να επηρεάσουν πραγματικές αποφάσεις και να είναι λάθος με μη προφανείς τρόπους.
  • Εκθέτουν εργαλεία και ενέργειες, όχι μόνο περιεχόμενο, σε αυτόνομους πράκτορες.
  • Η συμπεριφορά τους μπορεί να αλλάξει ουσιωδώς με σιωπηλή ενημέρωση μοντέλου.

Μια διαδικασία προμηθειών βαθμονομημένη για «αυτός ο πάροχος φιλοξενεί το CRM μας» δεν είναι βαθμονομημένη για «ο πράκτορας αυτού του παρόχου μπορεί να εγκρίνει δαπάνες».

Οι ρήτρες που πραγματικά μετρούν το 2026

Τα παρακάτω είναι τα συμβατικά άγκιστρα που συστήνουμε στους αγοραστές. Τίποτα εξωτικό. Οι σοβαροί πάροχοι AI δέχονται τα περισσότερα — και όποιοι δεν δέχονται, σας λένε κάτι χρήσιμο.

1. Διατήρηση δεδομένων και εκπαίδευση

«Ο Προμηθευτής δεν θα χρησιμοποιήσει Δεδομένα Πελάτη, prompts, completions ή παράγωγα για εκπαίδευση, fine-tuning ή αξιολόγηση μοντέλου, του Προμηθευτή ή υπεργολάβου, παρά μόνο με προηγούμενη έγγραφη συγκατάθεση για σκοπό ονομαστικά ορισμένο.»

Προεπιλογή: καμία εκπαίδευση. Αν ο προμηθευτής θέλει δεδομένα εκπαίδευσης, ας ζητήσει ρητά για ονομαστικό σκοπό και κατά προτίμηση ας πληρώσει. «Opt-out μέσω ρύθμισης» δεν είναι επαρκής έλεγχος· η ρύθμιση αλλάζει, η προεπιλογή γυρνάει, κανείς δεν το βλέπει.

2. Διαφάνεια υπεργολάβων

«Ο Προμηθευτής διατηρεί και δημοσιεύει τρέχουσα λίστα υπεργολάβων, περιλαμβανομένων παρόχων μοντέλων, παρόχων inference και αποθήκευσης δεδομένων. Προειδοποιεί τον Πελάτη 30 μέρες πριν για προσθήκες ή ουσιώδεις αλλαγές, με δικαίωμα καταγγελίας χωρίς ποινή αν η αλλαγή είναι μη αποδεκτή.»

Ο ενδιαφέρων υπεργολάβος σε ένα προϊόν AI είναι ο πάροχος μοντέλου. «Είμαστε χτισμένοι πάνω σε GPT/Claude/μοντέλο-X» είναι πληροφορία που χρειάζεστε, όχι εμπορικό μυστικό που πρέπει να ανεχθείτε να κρύβεται.

3. Προέλευση και έκδοση μοντέλου

«Ο Προμηθευτής αποκαλύπτει το συγκεκριμένο μοντέλο ή οικογένεια μοντέλων που χρησιμοποιείται για εξόδους προς τον Πελάτη, και ενημερώνει τουλάχιστον 14 μέρες πριν από αλλαγή υποκείμενου μοντέλου ή ουσιώδεις αλλαγές σε system prompts που επηρεάζουν το use case.»

Οι σιωπηλές αλλαγές μοντέλου καταλύουν αξιολογήσεις που έκανε ο πελάτης. Πρέπει να είναι συμβατικά δυσάρεστες.

4. Prompt injection και ευθύνη εξόδων

«Ο Προμηθευτής αναγνωρίζει ότι το προϊόν του είναι ευάλωτο σε prompt injection και συναφείς αντίπαλες εισόδους. Διατηρεί εύλογα εμπορικά μέτρα και αποζημιώνει τον Πελάτη για άμεσες ζημίες που προκλήθηκαν από εξόδους του προϊόντος ως αντίδραση σε τέτοιες εισόδους, μέχρι [οροφή].»

Αυτή είναι η ρήτρα στην οποία οι περισσότεροι πάροχοι αντιστέκονται περισσότερο. Η αντίσταση είναι πληροφοριακή. Μοιρασμένη ευθύνη με ρητή οροφή είναι λογικός μέσος όρος.

5. Αναφορά περιστατικών με AI-specific triggers

«Ο Προμηθευτής ενημερώνει τον Πελάτη εντός 72 ωρών για (α) έκθεση δεδομένων, (β) διαρκή υποβάθμιση ακρίβειας εξόδου που επηρεάζει ουσιωδώς το use case, (γ) επιβεβαιωμένο περιστατικό prompt injection που επηρεάζει το tenant του Πελάτη, ή (δ) ουσιώδη αλλαγή συμπεριφοράς μοντέλου, ανεξάρτητα από την πηγή.»

Οι κλασικές ρήτρες περιστατικών καλύπτουν το (α). Τα AI-specific είναι τα (β), (γ), (δ). Τα περισσότερα boilerplate DPAs δεν τα αγγίζουν.

6. Κατώφλια ανθρώπινης έγκρισης

«Για ενέργειες που το προϊόν εκτελεί εκ μέρους του Πελάτη και που [μετακινούν χρήματα, αποστέλλουν εξωτερική επικοινωνία, αλλάζουν αρχεία ή έχουν πρόσβαση σε συστήματα τρίτων], ο Προμηθευτής παρέχει ρυθμιζόμενα κατώφλια που απαιτούν ανθρώπινη επιβεβαίωση, με προεπιλογή ‘απαιτείται επιβεβαίωση’.»

Η προεπιλογή μετρά. «Μπορείτε να ενεργοποιήσετε ανθρώπινη έγκριση στις ρυθμίσεις» διαφέρει από «η ανθρώπινη έγκριση είναι ενεργή εξ ορισμού και μπορείτε να την απενεργοποιήσετε για συγκεκριμένες καλά κατανοητές περιπτώσεις».

7. Δυνατότητα ελέγχου

«Ο Προμηθευτής διατηρεί logs εισόδων, εξόδων και κλήσεων εργαλείων που αποδίδονται στο tenant του Πελάτη για [περίοδο] και τα παρέχει με εύλογο αίτημα και σε περιστατικά.»

Αν ο προμηθευτής δεν μπορεί να ανακατασκευάσει τι έκανε ο πράκτορας σε συγκεκριμένο τριαντάλεπτο εκ μέρους σας, δεν μπορείτε να αμυνθείτε όταν κάτι πάει στραβά.

8. Έξοδος και φορητότητα δεδομένων

«Σε καταγγελία, ο Προμηθευτής παρέχει στον Πελάτη όλα τα Δεδομένα Πελάτη και logs σε μηχανικά αναγνώσιμη μορφή εντός 30 ημερών και πιστοποιεί τη διαγραφή όλων των υπόλοιπων αντιγράφων, περιλαμβανομένων αυτών σε υπεργολάβους, εντός περαιτέρω 30 ημερών.»

Οι πάροχοι AI σε ταχεία αγορά πτωχεύουν ή εξαγοράζονται. Η ρήτρα εξόδου σας δεν είναι θεωρητική ανησυχία.

Ερωτήσεις σε κάθε πάροχο AI

Πριν τη διαπραγμάτευση, σύντομη συνέντευξη. Ψάχνετε ρέουσες, συγκεκριμένες απαντήσεις. Οι υπεκφυγές είναι πληροφορία.

  • Ποιο μοντέλο/μοντέλα τροφοδοτούν σήμερα το προϊόν και ποιος τα λειτουργεί;
  • Εκπαιδεύετε προεπιλεγμένα σε εισόδους ή εξόδους πελατών; Υπό ποιες συνθήκες θα το κάνατε;
  • Πώς ενημερώνετε τους πελάτες για αναβαθμίσεις μοντέλου; Τι άλλαξε στην τελευταία;
  • Πώς είναι το stack άμυνας prompt injection; Ποιο το εναπομείναν ρίσκο;
  • Περιγράψτε μου το χειρότερο περιστατικό των τελευταίων δώδεκα μηνών. Τι αλλάξατε;
  • Αν ήθελα να φύγω σε 18 μήνες, πώς θα έμοιαζε ακριβώς;
  • Ποιος βλέπει τα δεδομένα μου στη δική σας πλευρά και με ποια εξουσιοδότηση;
  • Ποια είναι η πολιτική σας για αλλαγές υπεργολάβων και ενημέρωση πελατών;
  • Τι υπάρχει στα logs σας, για πόσο, και πώς τα παίρνω σε περιστατικό;

Πάροχος που απαντά και στις εννέα χωρίς να κοιτάζει Slack είναι μάλλον ασφαλής να αγοράσετε. Πάροχος που αντιμετωπίζει αρκετές ως τιμολογιακά ευαίσθητες ή εκτός ορίων, σας λέει πού στέκεται πραγματικά η διακυβέρνησή του.

Το reframe

Η «υπεύθυνη AI» ως φιλοσοφική ερώτηση — τι πρέπει να κάνει η AI; — είναι ενδιαφέρουσα και σε μεγάλο βαθμό άλυτη. Η «υπεύθυνη AI» ως ερώτηση προμηθειών — σε τι δεσμεύει σήμερα, γραπτώς, αυτή η σύμβαση αυτόν τον προμηθευτή; — είναι λυτή και αθροιστική. Κάθε σύμβαση που επικαιροποιείτε κάνει την επόμενη ευκολότερη.

Αν δουλεύετε τώρα μια προμήθεια AI και θέλετε δεύτερο ζευγάρι μάτια στους όρους, είναι κουβέντα που χαιρόμαστε. Συνήθως φθηνότερη από το περιστατικό που αποτρέπει.