Αναζήτηση στην κοινότητα
Εμφάνιση αποτελεσμάτων για τις ετικέτες 'chatbot'.
4 αποτελέσματα
-
Παράνομα μεγάλα γλωσσικά μοντέλα εισπράττουν έως και 28.000 δολάρια μέσα σε δύο μήνες από πωλήσεις στη μαύρη αγορά, σύμφωνα με νέα έρευνα. Τα 200 εκατομμύρια ενεργών χρηστών ανά εβδομάδα που μετρά του ChatGPT βοήθησαν την OpenAI, την εταιρεία που βρίσκεται πίσω από το chatbot, να φτάσει σε αποτίμηση ύψους 100 δισεκατομμυρίων δολαρίων. Όμως, υπάρχουν και άλλοι τρόποι για να βγάλει κανείς χρήματα από ένα chatbot, ιδίως αν απευθύνεται στον υπόκοσμο. Τα παράνομα μεγάλα γλωσσικά μοντέλα (LLM) καταγράφουν διόλου ευκαταφρόνητα έσοδα μέσω των πωλήσεων σε παράνομες αγορές, σύμφωνα με πρόσφατη μελέτη που δημοσιεύτηκε στο arXiv, υπηρεσία ανάρτησης προδημοσιεύσεων που ανήκει στο Πανεπιστήμιο Κορνέλ. Αυτό είναι μόνο η κορυφή του παγόβουνου, σύμφωνα με τη μελέτη, η οποία εξέτασε περισσότερα από 200 παραδείγματα κακόβουλων LLM, τα οποία διακινήθηκαν μέσω παράνομων αγορών στο διάστημα μεταξύ Απριλίου και Οκτωβρίου 2023. Τα LLM χωρίζονται σε δύο κατηγορίες: εκείνα που είναι εντελώς μη λογοκριμένα LLMs, συχνά βασισμένα σε πρότυπα ανοιχτού κώδικα, και εκείνα που σπάνε τον κώδικα εμπορικών LLMs. «Πιστεύουμε ότι τώρα είναι ένα καλό στάδιο για να αρχίσουμε να μελετάμε αυτές τις περιπτώσεις, επειδή δεν θέλουμε να περιμένουμε μέχρι να έχει γίνει ήδη μεγάλη ζημιά», αναφέρει χαρακτηριστικά ο Ζιαοφένγκ Γουάνγκ, καθηγητής στο Πανεπιστήμιο Μπλούμινγκτον της Ιντιάνα, που μετείχε στη σύνταξη της μελέτης. «Θέλουμε να προλάβουμε καταστάσεις και να ενεργήσουμε πριν οι επιτιθέμενοι προλάβουν να μας προκαλέσουν τεράστια ζημιά». Αν και οι χάκερ μπορούν κατά καιρούς να παρακάμψουν τους ενσωματωμένους περιορισμούς των μεγάλων γλωσσικών μοντέλων που προορίζονται για την αποτροπή παράνομων ή αμφισβητήσιμων δραστηριοτήτων, τέτοιες περιπτώσεις είναι ελάχιστες. Αντ' αυτού, για να ικανοποιηθεί η ζήτηση, έχουν εμφανιστεί παράνομες διανομές LLM. Και όπως είναι αναμενόμενο, αυτοί που βρίσκονται πίσω από αυτές τις διανομές επιχειρούν να εκμεταλλευτούν οικονομικά το ενδιαφέρον που καταγράφεται. «Διαπιστώσαμε ότι οι περισσότερες από τις υπηρεσίες αυτού του είδους υπάρχουν κυρίως για να βγάζουν οι διαχειριστές τους κέρδος», αναφέρει ο Τζιλόνγκ Λιν, ερευνητής στο Πανεπιστήμιο Μπλούμινγκτον της Ιντιάνα, που επίσης μετείχε στη σύνταξη της μελέτης. Τα κακόβουλα LLM μπορούν να αξιοποιηθούν με διάφορους τρόπους, από τη συγγραφή μηνυμάτων ηλεκτρονικού «ψαρέματος» (εντωμεταξέ, άλλη μελέτη εκτιμά ότι τα LLM μπορούν να μειώσουν το κόστος παραγωγής τέτοιων μηνυμάτων κατά 96%) έως και την ανάπτυξη κακόβουλου λογισμικού για την επίθεση σε ιστότοπους. Οι ικανότητες αυτών των LLM της μαύρης αγοράς να εκτελούν τα καθήκοντά τους μπορεί να ποικίλει σε μεγάλο βαθμό, αν και ορισμένα είναι ιδιαίτερα ισχυρά εργαλεία. Οι Λιν και Γουάνγκ διαπίστωσαν ότι δύο μη λογοκριμένα LLMs, το DarkGPT (το οποίο κοστίζει 78 σεντς για κάθε 50 μηνύματα) και το Escape GPT (μια συνδρομητική υπηρεσία που χρεώνει 64,98 δολάρια το μήνα), ήταν σε θέση να παράγουν σωστό κώδικα περίπου στα δύο τρίτα του χρόνου, και ο κώδικας που παρήγαγαν δεν εντοπίστηκε από εργαλεία προστασίας από ιούς - δίνοντάς τους μεγαλύτερη πιθανότητα επιτυχούς επίθεσης σε έναν υπολογιστή. Ένα άλλο κακόβουλο LLM, το WolfGPT, η πρόσβαση στο οποίο κοστίζει 150 δολάρια εφάπαξ, διαπιστώθηκε πως ήταν ιδιαίτερα ικανό στη δημιουργία phishing emails, καταφέρνοντας να αποφύγει με επιτυχία τους περισσότερους ανιχνευτές spam. Η ύπαρξη τέτοιων κακόβουλων εργαλείων AI δεν θα έπρεπε να προκαλεί έκπληξη, σύμφωνα με το Γουάνγκ. «Είναι σχεδόν αναπόφευκτο οι εγκληματίες του κυβερνοχώρου να χρησιμοποιούν την τεχνητή νοημοσύνη. Κάθε τεχνολογία έχει πάντα δύο πλευρές». Ο Άντριιου Χαντ, στέλεχος του Πανεπιστημίου Κάρνεγκι Μέλον, που δεν συμμετείχε στη μελέτη, σχολιάζει ότι οι συγγραφείς «αποδεικνύουν ότι οι κακόβουλοι χρήστες καταφέρνουν να μεταπωλούν εταιρικές προσφορές για κακόβουλους σκοπούς». Ο Χαντ πιστεύει ότι οι υπεύθυνοι χάραξης πολιτικής οφείλουν να απαιτήσουν από τις εταιρείες τεχνητής νοημοσύνης να αναπτύσσουν και να θέτουν σε εφαρμογή πολιτικές αναγνώρισης των πελατών τους, για την επαλήθευση της ταυτότητας ενός χρήστη. «Χρειαζόμαστε επίσης νομικά πλαίσια για να διασφαλίσουμε ότι οι εταιρείες που δημιουργούν αυτά τα μοντέλα και παρέχουν υπηρεσίες το κάνουν πιο υπεύθυνα, με τρόπο που να μετριάζει τους κινδύνους που δημιουργούν οι κακόβουλοι φορείς», λέει. Ο Γουάνγκ, από την πλευρά του, επισημαίνει ότι η έρευνα όπως αυτή της ομάδας του είναι μόνο η αρχή, ως προς τη μάχη που πρέπει να δοθεί κατά των κυβερνοεγκληματιών. «Μπορούμε να αναπτύξουμε τεχνολογίες και να παρέχουμε πληροφορίες για να βοηθήσουμε», λέει, “αλλά δεν μπορούμε να κάνουμε τίποτα για να σταματήσουμε εντελώς αυτά τα πράγματα, καθώς δεν διαθέτουμε τους ανάλογους πόρους”. Διαβάστε ολόκληρο το άρθρο
-
Τα 200 εκατομμύρια ενεργών χρηστών ανά εβδομάδα που μετρά του ChatGPT βοήθησαν την OpenAI, την εταιρεία που βρίσκεται πίσω από το chatbot, να φτάσει σε αποτίμηση ύψους 100 δισεκατομμυρίων δολαρίων. Όμως, υπάρχουν και άλλοι τρόποι για να βγάλει κανείς χρήματα από ένα chatbot, ιδίως αν απευθύνεται στον υπόκοσμο. Τα παράνομα μεγάλα γλωσσικά μοντέλα (LLM) καταγράφουν διόλου ευκαταφρόνητα έσοδα μέσω των πωλήσεων σε παράνομες αγορές, σύμφωνα με πρόσφατη μελέτη που δημοσιεύτηκε στο arXiv, υπηρεσία ανάρτησης προδημοσιεύσεων που ανήκει στο Πανεπιστήμιο Κορνέλ. Αυτό είναι μόνο η κορυφή του παγόβουνου, σύμφωνα με τη μελέτη, η οποία εξέτασε περισσότερα από 200 παραδείγματα κακόβουλων LLM, τα οποία διακινήθηκαν μέσω παράνομων αγορών στο διάστημα μεταξύ Απριλίου και Οκτωβρίου 2023. Τα LLM χωρίζονται σε δύο κατηγορίες: εκείνα που είναι εντελώς μη λογοκριμένα LLMs, συχνά βασισμένα σε πρότυπα ανοιχτού κώδικα, και εκείνα που σπάνε τον κώδικα εμπορικών LLMs. «Πιστεύουμε ότι τώρα είναι ένα καλό στάδιο για να αρχίσουμε να μελετάμε αυτές τις περιπτώσεις, επειδή δεν θέλουμε να περιμένουμε μέχρι να έχει γίνει ήδη μεγάλη ζημιά», αναφέρει χαρακτηριστικά ο Ζιαοφένγκ Γουάνγκ, καθηγητής στο Πανεπιστήμιο Μπλούμινγκτον της Ιντιάνα, που μετείχε στη σύνταξη της μελέτης. «Θέλουμε να προλάβουμε καταστάσεις και να ενεργήσουμε πριν οι επιτιθέμενοι προλάβουν να μας προκαλέσουν τεράστια ζημιά». Αν και οι χάκερ μπορούν κατά καιρούς να παρακάμψουν τους ενσωματωμένους περιορισμούς των μεγάλων γλωσσικών μοντέλων που προορίζονται για την αποτροπή παράνομων ή αμφισβητήσιμων δραστηριοτήτων, τέτοιες περιπτώσεις είναι ελάχιστες. Αντ' αυτού, για να ικανοποιηθεί η ζήτηση, έχουν εμφανιστεί παράνομες διανομές LLM. Και όπως είναι αναμενόμενο, αυτοί που βρίσκονται πίσω από αυτές τις διανομές επιχειρούν να εκμεταλλευτούν οικονομικά το ενδιαφέρον που καταγράφεται. «Διαπιστώσαμε ότι οι περισσότερες από τις υπηρεσίες αυτού του είδους υπάρχουν κυρίως για να βγάζουν οι διαχειριστές τους κέρδος», αναφέρει ο Τζιλόνγκ Λιν, ερευνητής στο Πανεπιστήμιο Μπλούμινγκτον της Ιντιάνα, που επίσης μετείχε στη σύνταξη της μελέτης. Τα κακόβουλα LLM μπορούν να αξιοποιηθούν με διάφορους τρόπους, από τη συγγραφή μηνυμάτων ηλεκτρονικού «ψαρέματος» (εντωμεταξέ, άλλη μελέτη εκτιμά ότι τα LLM μπορούν να μειώσουν το κόστος παραγωγής τέτοιων μηνυμάτων κατά 96%) έως και την ανάπτυξη κακόβουλου λογισμικού για την επίθεση σε ιστότοπους. Οι ικανότητες αυτών των LLM της μαύρης αγοράς να εκτελούν τα καθήκοντά τους μπορεί να ποικίλει σε μεγάλο βαθμό, αν και ορισμένα είναι ιδιαίτερα ισχυρά εργαλεία. Οι Λιν και Γουάνγκ διαπίστωσαν ότι δύο μη λογοκριμένα LLMs, το DarkGPT (το οποίο κοστίζει 78 σεντς για κάθε 50 μηνύματα) και το Escape GPT (μια συνδρομητική υπηρεσία που χρεώνει 64,98 δολάρια το μήνα), ήταν σε θέση να παράγουν σωστό κώδικα περίπου στα δύο τρίτα του χρόνου, και ο κώδικας που παρήγαγαν δεν εντοπίστηκε από εργαλεία προστασίας από ιούς - δίνοντάς τους μεγαλύτερη πιθανότητα επιτυχούς επίθεσης σε έναν υπολογιστή. Ένα άλλο κακόβουλο LLM, το WolfGPT, η πρόσβαση στο οποίο κοστίζει 150 δολάρια εφάπαξ, διαπιστώθηκε πως ήταν ιδιαίτερα ικανό στη δημιουργία phishing emails, καταφέρνοντας να αποφύγει με επιτυχία τους περισσότερους ανιχνευτές spam. Η ύπαρξη τέτοιων κακόβουλων εργαλείων AI δεν θα έπρεπε να προκαλεί έκπληξη, σύμφωνα με το Γουάνγκ. «Είναι σχεδόν αναπόφευκτο οι εγκληματίες του κυβερνοχώρου να χρησιμοποιούν την τεχνητή νοημοσύνη. Κάθε τεχνολογία έχει πάντα δύο πλευρές». Ο Άντριιου Χαντ, στέλεχος του Πανεπιστημίου Κάρνεγκι Μέλον, που δεν συμμετείχε στη μελέτη, σχολιάζει ότι οι συγγραφείς «αποδεικνύουν ότι οι κακόβουλοι χρήστες καταφέρνουν να μεταπωλούν εταιρικές προσφορές για κακόβουλους σκοπούς». Ο Χαντ πιστεύει ότι οι υπεύθυνοι χάραξης πολιτικής οφείλουν να απαιτήσουν από τις εταιρείες τεχνητής νοημοσύνης να αναπτύσσουν και να θέτουν σε εφαρμογή πολιτικές αναγνώρισης των πελατών τους, για την επαλήθευση της ταυτότητας ενός χρήστη. «Χρειαζόμαστε επίσης νομικά πλαίσια για να διασφαλίσουμε ότι οι εταιρείες που δημιουργούν αυτά τα μοντέλα και παρέχουν υπηρεσίες το κάνουν πιο υπεύθυνα, με τρόπο που να μετριάζει τους κινδύνους που δημιουργούν οι κακόβουλοι φορείς», λέει. Ο Γουάνγκ, από την πλευρά του, επισημαίνει ότι η έρευνα όπως αυτή της ομάδας του είναι μόνο η αρχή, ως προς τη μάχη που πρέπει να δοθεί κατά των κυβερνοεγκληματιών. «Μπορούμε να αναπτύξουμε τεχνολογίες και να παρέχουμε πληροφορίες για να βοηθήσουμε», λέει, “αλλά δεν μπορούμε να κάνουμε τίποτα για να σταματήσουμε εντελώς αυτά τα πράγματα, καθώς δεν διαθέτουμε τους ανάλογους πόρους”.
-
Στην κατεύθυνση της εξειδίκευσης ποντάρει η πρωτοπόρος εταιρία στον τομέα της τεχνητής νοημοσύνης. Σε άρθρο που δημοσιεύτηκε στο περιοδικό Time, ο συνιδρυτής της OpenAI, Σαμ Άλτμαν, και η Αριάνα Χάφινγκτον, ιδρύτρια της Huffington Post, ανακοίνωσαν μια νέα συνεργασία με σκοπό τη χρηματοδότηση της ανάπτυξης ενός "ΑΙ συμβούλου υγείας", μέσα από το εταιρικό σχήμα της Thrive AI Health. Αυτός ο ψηφιακός γιατρός θα εκπαιδευόταν στη βάση "των κορυφαίων, διασταυρωμένων επιστημονικών στοιχείων" καθώς και "των προσωπικών βιομετρικών, εργαστηριακών και άλλων ιατρικών δεδομένων" που οι χρήστες θα επιλέξουν να γνωστοποιήσουν στην εταιρία. "Κάθε πτυχή της υγείας μας επηρεάζεται βαθιά από τις πέντε θεμελιώδης καθημερινές συμπεριφορές, τον ύπνο, τη θρέψη, την κίνηση, τη διαχείριση του στρες και τους κοινωνικούς δεσμούς", αναφέρουν οι δυο τους στο άρθρο. "Η τεχνητή νοημοσύνη, αξιοποιώντας την απόλυτη εξατομίκευση μπορεί να βελτιώσει αισθητά αυτές τις συμπεριφορές". Για παράδειγμα, το ιατρικό chatbot θα επιχειρούσε να μάθει ποιες συνθήκες οδήγησαν στο να κάνει καλό ύπνο ο χρήστης, ποιες είναι οι αγαπημένες τροφές του, συνήθειες άσκησης και κίνησης και πώς εκτονώνει με τον πλέον αποτελεσματικό τρόπο το στρες. Το αποτέλεσμα θα είναι "ένας πλήρως ενσωματωμένος προσωπικός σύμβουλος υγείας" που θα προσφέρει "παροτρύνσεις σε πραγματικό χρόνο" και εξατομικευμένες συστάσεις. Άλτμαν και Χάφινγκτον υποστηρίζουν ότι εφόσον "οι χρόνιες ασθένειες -όπως ο διαβήτης και τα καρδιαγγειακά νοσήματα- κατανέμονται άνισα στις διάφορες δημογραφικές ομάδες, ένας άκρως εξατομικευμένος ΑΙ σύμβουλος υγείας θα βοηθούσε στο να καταστούν ευκολότερες και περισσότερο προσβάσιμες οι υγιείς αλλαγές στη συμπεριφορά". Επισημαίνουν χαρακτηριστικά ότι 129 εκατομμύρια Αμερικανοί βρίσκονται αντιμέτωποι με τέτοια χρόνια νοσήματα και ότι περίπου το 90% από τα 4,1 δισεκατομμύρια δολάρια που δαπανώνται στις ΗΠΑ στον τομέα της υγείας καταλήγουν στη θεραπεία, αντί της πρόληψης. Οι δυο τους περιγράφουν το παράδειγμα ενός "πολυάσχολου διαβητικού επαγγελματία". Ο σύμβουλος υγείας, που θα εκπαιδευόταν στη βάση των συγκεκριμένων ιατρικών δεδομένων του χρήστη, θα μπορούσε να αποστέλλει υπενθυμίσεις για τη λήψη τυχόν φαρμακευτικής αγωγής, να προτείνει υγιεινές ιδέες για φαγητό και να ενθαρρύνει την άσκηση. Υποστηρίζουν ότι "η χρήση της ΑΙ με αυτό τον τρόπο θα εκδημοκράτιζε τα σωτήρια οφέλη της βελτίωσης των καθημερινών συνηθειών και θα αντιμετώπιζε τις εντεινόμενες ανισότητες στον τομέα της υγείας". Δεν είναι σαφές, όμως, το πώς οι προτάσεις αυτές είναι υπέρτερες του θα ρυθμίσει κανείς υπενθυμίσεις μέσω του κινητού του ή να αναζητήσει στο διαδίκτυο "ιδέες για υγιεινότερα γεύματα για διαβητικούς" ή, τουλάχιστον, να είναι τόσο ανώτερες ώστε να αντισταθμίζεται ο κίνδυνος του να γνωστοποιήσει κανείς προσωπικά ιατρικά δεδομένα στην OpenAI. Εντωμεταξύ, εξακολουθεί να υφίσταται το ζήτημα με τις λανθασμένες πληροφορίες που ενσωματώνουν τα μοντέλα τεχνητής νοημοσύνης στις απαντήσεις τους. Μάλιστα, κάποια στιγμή μας προτάθηκε να βάλουμε κόλλα στην πίτσα, όμως τέτοιου είδους λάθη όταν το μοντέλο παρέχει συμβουλές υγείας θα μπορούσε εύκολα να οδηγήσει σε πολύ επικίνδυνες καταστάσεις. Επίσης, δεν είναι η πρώτη φορά που μια τεχνολογική εταιρία επιχειρεί να δημιουργήσει έναν ψηφιακό σύμβουλο υγείας. Η Onvy προσφέρει ένα παρόμοιο προϊόν, τόσο για iOS όσο και Android, που συνεργάζεται με περισσότερες από 300 εφαρμογές παρακολούθησης της υγείας του χρήση, ενώ η Fitbit, θυγατρική της Google, φέρεται να ετοιμάζει ένα AI chatbot για τη σειρά των wearable προϊόντων της, τη στιγμή που η Whoop ήδη προσφέρει έναν ΑΙ σύμβουλο υγείας, βασισμένο στο ChatGPT, για τα προϊόντα της. Διαβάστε ολόκληρο το άρθρο
-
Σε άρθρο που δημοσιεύτηκε στο περιοδικό Time, ο συνιδρυτής της OpenAI, Σαμ Άλτμαν, και η Αριάνα Χάφινγκτον, ιδρύτρια της Huffington Post, ανακοίνωσαν μια νέα συνεργασία με σκοπό τη χρηματοδότηση της ανάπτυξης ενός "ΑΙ συμβούλου υγείας", μέσα από το εταιρικό σχήμα της Thrive AI Health. Αυτός ο ψηφιακός γιατρός θα εκπαιδευόταν στη βάση "των κορυφαίων, διασταυρωμένων επιστημονικών στοιχείων" καθώς και "των προσωπικών βιομετρικών, εργαστηριακών και άλλων ιατρικών δεδομένων" που οι χρήστες θα επιλέξουν να γνωστοποιήσουν στην εταιρία. "Κάθε πτυχή της υγείας μας επηρεάζεται βαθιά από τις πέντε θεμελιώδης καθημερινές συμπεριφορές, τον ύπνο, τη θρέψη, την κίνηση, τη διαχείριση του στρες και τους κοινωνικούς δεσμούς", αναφέρουν οι δυο τους στο άρθρο. "Η τεχνητή νοημοσύνη, αξιοποιώντας την απόλυτη εξατομίκευση μπορεί να βελτιώσει αισθητά αυτές τις συμπεριφορές". Για παράδειγμα, το ιατρικό chatbot θα επιχειρούσε να μάθει ποιες συνθήκες οδήγησαν στο να κάνει καλό ύπνο ο χρήστης, ποιες είναι οι αγαπημένες τροφές του, συνήθειες άσκησης και κίνησης και πώς εκτονώνει με τον πλέον αποτελεσματικό τρόπο το στρες. Το αποτέλεσμα θα είναι "ένας πλήρως ενσωματωμένος προσωπικός σύμβουλος υγείας" που θα προσφέρει "παροτρύνσεις σε πραγματικό χρόνο" και εξατομικευμένες συστάσεις. Άλτμαν και Χάφινγκτον υποστηρίζουν ότι εφόσον "οι χρόνιες ασθένειες -όπως ο διαβήτης και τα καρδιαγγειακά νοσήματα- κατανέμονται άνισα στις διάφορες δημογραφικές ομάδες, ένας άκρως εξατομικευμένος ΑΙ σύμβουλος υγείας θα βοηθούσε στο να καταστούν ευκολότερες και περισσότερο προσβάσιμες οι υγιείς αλλαγές στη συμπεριφορά". Επισημαίνουν χαρακτηριστικά ότι 129 εκατομμύρια Αμερικανοί βρίσκονται αντιμέτωποι με τέτοια χρόνια νοσήματα και ότι περίπου το 90% από τα 4,1 δισεκατομμύρια δολάρια που δαπανώνται στις ΗΠΑ στον τομέα της υγείας καταλήγουν στη θεραπεία, αντί της πρόληψης. Οι δυο τους περιγράφουν το παράδειγμα ενός "πολυάσχολου διαβητικού επαγγελματία". Ο σύμβουλος υγείας, που θα εκπαιδευόταν στη βάση των συγκεκριμένων ιατρικών δεδομένων του χρήστη, θα μπορούσε να αποστέλλει υπενθυμίσεις για τη λήψη τυχόν φαρμακευτικής αγωγής, να προτείνει υγιεινές ιδέες για φαγητό και να ενθαρρύνει την άσκηση. Υποστηρίζουν ότι "η χρήση της ΑΙ με αυτό τον τρόπο θα εκδημοκράτιζε τα σωτήρια οφέλη της βελτίωσης των καθημερινών συνηθειών και θα αντιμετώπιζε τις εντεινόμενες ανισότητες στον τομέα της υγείας". Δεν είναι σαφές, όμως, το πώς οι προτάσεις αυτές είναι υπέρτερες του θα ρυθμίσει κανείς υπενθυμίσεις μέσω του κινητού του ή να αναζητήσει στο διαδίκτυο "ιδέες για υγιεινότερα γεύματα για διαβητικούς" ή, τουλάχιστον, να είναι τόσο ανώτερες ώστε να αντισταθμίζεται ο κίνδυνος του να γνωστοποιήσει κανείς προσωπικά ιατρικά δεδομένα στην OpenAI. Εντωμεταξύ, εξακολουθεί να υφίσταται το ζήτημα με τις λανθασμένες πληροφορίες που ενσωματώνουν τα μοντέλα τεχνητής νοημοσύνης στις απαντήσεις τους. Μάλιστα, κάποια στιγμή μας προτάθηκε να βάλουμε κόλλα στην πίτσα, όμως τέτοιου είδους λάθη όταν το μοντέλο παρέχει συμβουλές υγείας θα μπορούσε εύκολα να οδηγήσει σε πολύ επικίνδυνες καταστάσεις. Επίσης, δεν είναι η πρώτη φορά που μια τεχνολογική εταιρία επιχειρεί να δημιουργήσει έναν ψηφιακό σύμβουλο υγείας. Η Onvy προσφέρει ένα παρόμοιο προϊόν, τόσο για iOS όσο και Android, που συνεργάζεται με περισσότερες από 300 εφαρμογές παρακολούθησης της υγείας του χρήση, ενώ η Fitbit, θυγατρική της Google, φέρεται να ετοιμάζει ένα AI chatbot για τη σειρά των wearable προϊόντων της, τη στιγμή που η Whoop ήδη προσφέρει έναν ΑΙ σύμβουλο υγείας, βασισμένο στο ChatGPT, για τα προϊόντα της.