Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ.

Οι βασικές παράμετροι περιλαμβάνουν μεταξύ άλλων την αποφυγή των λεγόμενων "ψηφιακών ψευδαισθήσεων" καθώς και την αναπαραγωγή "αρνητικών" θεματικών.

Oι νέες developer betas της Apple κυκλοφόρησαν την περασμένη εβδομάδα, συνοδευόμενες από μερικές λειτουργίες δημιουργικής τεχνητής νοημοσύνης, οι οποίες είχαν ανακοινωθεί στη διάρκεια της WWDC και στην πορεία των επόμενων μηνών θα ενσωματωθούν σε iPhone, iPad και Mac. Στους υπολογιστές της Apple, πάντως, μπορεί κανείς ήδη να διαβάσει τις οδηγίες που έχουν προγραμματιστεί στο μοντέλο, ώστε να υποστηρίζουν ορισμένες από τις λειτουργίες της Apple Intelligence.

Οι οδηγίες αυτές εμφανίζονται ως προτροπές, οι οποίες προηγούνται εξ ορισμού οτιδήποτε θα ζητούσε κανείς από ένα chatobot, ενώ τις έχουμε δει να αποκαλύπτονται και στο παρελθόν για εργαλεία τεχνητής νοημοσύνης, όπως αυτά στο Microsoft Bing και το DALL-E. Τώρα, μέλος του subreddit για τη beta του macOS 15.1 γνωστοποίησε ότι εντόπισε τους φακέλους που περιέχουν αυτές τις οδηγίες. Οι σχετικοί φάκελοι είναι αδύνατο να τροποποιηθούν, όμως δίνουν μια πρώτη εικόνα του τι συμβαίνει στο παρασκήνιο.

 Screenshot_2024_08_05_at_1.19.48_PM.png

Στο παραπάνω παράδειγμα, ένα AI bot για κάποιο "χρήσιμο βοηθό διαχείρισης mail" λαμβάνει οδηγίες για το πώς να θέτει μια σειρά από ερωτήσεις, ανάλογα με το περιεχόμενο ενός email. Αυτό, θα μπορούσε να είμαι μέρος της λειτουργίας Smart Reply (Έξυπνη Απάντηση) της Apple, που μπορεί να προτείνει πιθανές απαντήσεις στο χρήστη.

A screenshot of an instruction prompt telling the LLM to provide a reply based on a provided snippet, limiting its answer to 50 words — and not to hallucinate or make things up.

Το παραπάνω φέρνει στη λειτουργία "Rewrite" της Apple, ένα από τα Εργαλεία Συγγραφής στα οποία αποκτά κανείς πρόσβαση μαρκάροντας ένα κομμάτι του κειμένου και πατώντας με δεξί κλικ (ή, στο iOS, πατώντας παρατεταμένα) επάνω του. Οι οδηγίες του περιλαμβάνουν παραγράφους που αναφέρουν, "Παρακαλώ περιόρισε την απάντηση στις 50 λέξεις. Μην έχεις παραισθήσεις. Μην κατασκευάζεις πληροφορίες".

A screenshot instructing Apple Intelligence to summarize emails within three sentences and under 60 words.

Εδώ, η οδηγία έχει να κάνει με την έκταση των περιλήψεων, μαζί με σαφή εντολή να μην απαντήσει σε καμία ερώτηση από το μήνυμα.

Screenshot instructing Apple Intelligence on how to construct a story based on photographs.

Οι παραπάνω οδηγίες μάλλον έχουν να κάνουν με το πώς να δημιουργηθεί ένα βίντεο "Αναμνήσεων" μέσω του Apple Photos. Το πλαίσιο είναι "Μη γράψεις ιστορία η οποία να είναι θρησκευτική, πολιτική, επιβλαβής, βίαιη, σεξουαλική, χυδαία ή κατά οιονδήποτε τρόπο αρνητική, θλιβερή ή προκλητική", κι αυτό ίσως να εξηγεί το γιατί, στις δοκιμές, η λειτουργία απέρριψε την οδηγία που έλαβε να εμφανίσει "εικόνες θλίψης".

Στους φακέλους περιλαμβάνονται πολλές ακόμη οδηγίες, και όλες αναπτύσσουν τις κρυφές οδηγίες που δίνονται στα εργαλεία τεχνητής νοημοσύνης της Apple, πριν καν υποβάλει το ερώτημά του ο χρήστης. Περιλαμβάνονται επίσης αναφορές στο μοντέλο με την ονομασία "ajax", που ορισμένοι ίσως θυμούνται από πέρυσι, ως το φημολογούμενο όνομα που χρησιμοποιούσε εσωτερικά η Apple για το μεγάλο γλωσσικό μοντέλο της:

A screenshot showing a config entry with “ajax” as the model name.

O χρήστης που εντόπισε τις οδηγίες ανάρτησε και δικές του, για το πώς μπορεί κανείς να εντοπίσει τους φακέλους μέσα στη developer beta για το macOS Sequoia 15.1.

Αρχικά, θα χρειαστεί να ανοίξει ο φάκελος "purpose_auto" και εκεί κανονικά θα εμφανιστεί ένας κατάλογος άλλων φακέλων, με μεγάλα, αλφαριθμητικά ονόματα. Στους περισσότερους από αυτούς περιέχεται ένας άλλος φάκελος με την ονομασία AssetData που με τη σειρά του περιέχει αρχεία metadata.json. Ανοίγοντας αυτά τα αρχεία θα εμφανιστεί ο κώδικας -σε ορισμένες περιπτώσεις το κάτω μέρος- και οι οδηγίες που μεταφέρονται στην τοπική έκδοση του μεγάλου γλωσσικού μοντέλου. Βέβαια, καλό είναι να θυμάται κανείς ότι όλες αυτές οι πληροφορίες βρίσκονται σε ένα τμήμα του macOS που περιέχει τα πλέον ευαίσθητα αρχεία του συστήματος, επομένως χρειάζεται προσοχή από όσους αποφασίσουν να περιηγηθούν σε αυτά.


Διαβάστε ολόκληρο το άρθρο

Δημοσ.
23 λεπτά πριν, Silverage είπε

Έχει φτάσει σε τέτοιο σημείο το ΑΙ;

Το "Do not hallucinate" φαντάζομαι είναι μια φράση - κλειδί που λογικά "κουμπώνει" σε κάποιον εκτελέσιμο κώδικα που τρέχει τους περιορισμούς και ελέγχους που πρέπει να εκτελεστούν. Δλδ σαν να ορίζουμε ότι η φράση "βρες μου το άθροισμα" θα αντιστοιχεί σε έναν κώδικα που θα εκτελεί το a + b και θα επιστρέφει το αποτέλεσμα. Υποθετικά τώρα όλα αυτά, καθώς ο τομέας μου δεν είναι στην Α.Ι. οπότε όποιος συνάδελφος γνωρίζει κάτι ας με διορθώσει.

Δημοσ.
36 minutes ago, Nakis93 said:

Το "Do not hallucinate" φαντάζομαι είναι μια φράση - κλειδί που λογικά "κουμπώνει" σε κάποιον εκτελέσιμο κώδικα που τρέχει τους περιορισμούς και ελέγχους που πρέπει να εκτελεστούν. Δλδ σαν να ορίζουμε ότι η φράση "βρες μου το άθροισμα" θα αντιστοιχεί σε έναν κώδικα που θα εκτελεί το a + b και θα επιστρέφει το αποτέλεσμα. Υποθετικά τώρα όλα αυτά, καθώς ο τομέας μου δεν είναι στην Α.Ι. οπότε όποιος συνάδελφος γνωρίζει κάτι ας με διορθώσει.

Καλά ούτε και εγώ είμαι του κλάδου του Α.Ι. αλλά βρήκα αυτό:
https://cloud.google.com/discover/what-are-ai-hallucinations
 

Spoiler

AI hallucinations are incorrect or misleading results that AI models generate. These errors can be caused by a variety of factors, including insufficient training data, incorrect assumptions made by the model, or biases in the data used to train the model. AI hallucinations can be a problem for AI systems that are used to make important decisions, such as medical diagnoses or financial trading.

 

Δημοσ.
51 λεπτά πριν, comfuzio είπε

Καλά ούτε και εγώ είμαι του κλάδου του Α.Ι. αλλά βρήκα αυτό:
https://cloud.google.com/discover/what-are-ai-hallucinations
 

  Εμφάνιση κρυμμένου περιεχομένου

AI hallucinations are incorrect or misleading results that AI models generate. These errors can be caused by a variety of factors, including insufficient training data, incorrect assumptions made by the model, or biases in the data used to train the model. AI hallucinations can be a problem for AI systems that are used to make important decisions, such as medical diagnoses or financial trading.

Απάντησα στο σχόλιο παραπάνω διότι δημιουργείται η εντύπωση ότι λέμε στην Α.Ι. Do not Hallucinate και αυτή "σκέφτεται" και δημιουργεί κώδικα ή λύσεις απ το μηδέν για να το αποφύγει. Ενώ φαντάζομαι ότι αυτό που συμβαίνει πραγματικά είναι ότι υπάρχει ήδη έτοιμος κώδικας γραμμένος από ανθρώπους που τρέχει όταν δοθεί η συγκεκριμένη εντολή.

  • Like 1
Δημοσ.

To "Do not hallucinate" είναι οδηγία στην ΑΙ να μήν δημιουργεί αναληθείς απαντήσεις.

Ίσως έτσι να αναγκάζει την ΑΙ να κάνει επιβεβαίωση των δεδομένων που χρησιμοποίησε για να παράξει την απάντηση.

Δεν νομίζω όμως το hallucination να λύνεται με απλά αυτήν την οδηγία.

Πιό πολύ για ευχή μοιάζει, παρά για λύση.

Δημοσ.
Στις 6/8/2024 στις 7:15 ΜΜ, nchatz είπε

Το πλαίσιο είναι "Μη γράψεις ιστορία η οποία να είναι θρησκευτική, πολιτική, επιβλαβής, βίαιη, σεξουαλική, χυδαία ή κατά οιονδήποτε τρόπο αρνητική, θλιβερή ή προκλητική"

Δεν μένει και τίποτα να γράψει. Οι αόριστες και γενικόλογες απαιτήσεις φέρνουν συνήθως το ανάποδο αποτέλεσμα από αυτό που φαντάστηκε ο άχρηστος που τις έθεσε.

image.jpeg.1d54c1003bfd7f4fb41c259f029c6875.jpeg

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...