Ετικέτα: Anthropic

παρατηρείται στροφή προς τις ανανεώσιμες πηγές ενέργειας, κυρίως την ηλιακή, λόγω χαμηλότερου κόστους και ευκολότερης αδειοδότησης. Εταιρείες όπως η Redwood Materials αξιοποιούν παλιές μπαταρίες για τη δημιουργία μικροδικτύων, στοχεύοντας την αγορά των AI data centers.

Τεχνητή νοημοσύνη και ενέργεια: Αναζητώντας βιώσιμες λύσεις

Πόση από την άνθηση των κέντρων δεδομένων AI θα τροφοδοτηθεί από ανανεώσιμες πηγές ενέργειας; Η ραγδαία ανάπτυξη των κέντρων δεδομένων που υποστηρίζουν την τεχνητή νοημοσύνη (AI) έχει προκαλέσει έντονο ενδιαφέρον ...

Claude for Excel: Η Anthropic φέρνει την Τεχνητή Νοημοσύνη μέσα στα υπολογιστικά φύλλα

Claude for Excel: Η Anthropic φέρνει την Τεχνητή Νοημοσύνη μέσα στα υπολογιστικά φύλλα

Η πιο φυσική συνεργασία ανθρώπου και AI στο Excel γίνεται πραγματικότητα Η Anthropic ανακοίνωσε επίσημα την κυκλοφορία του Claude for Excel, μιας νέας λειτουργίας σε beta (research preview) που φέρνει ...

Context Engineering: Η νέα προσέγγιση στον σχεδιασμό έξυπνων AI agents από την Anthropic

Context Engineering: Η νέα προσέγγιση στον σχεδιασμό έξυπνων AI agents από την Anthropic

Πώς το Context Engineering ενισχύει την αποδοτικότητα, τη σταθερότητα και τον έλεγχο των AI agents Στην εποχή των εξελιγμένων συστημάτων με βάση γλώσσες (LLMs), η απλή εστίαση στο «πώς γράφω ...

Η Anthropic Δίνει Λογαριασμό για την Κακή Απόδοση του Claude. «Δεν μειώνουμε ποτέ την ποιότητα του μοντέλου λόγω ζήτησης, ώρας ή φόρτου στους διακομιστές. Τα προβλήματα προήλθαν αποκλειστικά από σφάλματα υποδομής», δήλωσε η Anthropic.

Claude: Σφάλματα Υποδομής και Απώλεια Εμπιστοσύνης

Ανθρωποκεντρική Προσέγγιση: Τρεις Σφάλματα Υποδομής Προκάλεσαν Προβλήματα Απόδοσης του Claude Η εταιρεία Anthropic αναγνώρισε τρία σφάλματα υποδομής που ευθύνονται για την υποβάθμιση της ποιότητας των μοντέλων Claude, ενώ αρνείται κατηγορηματικά ...

Πέρασε το νομοσχέδιο SB 53 για την ασφάλεια της ΤΝ στην Καλιφόρνια

Καλιφόρνια: Νομοσχέδιο προστατεύει εργαζόμενους σε εργαστήρια AI

Καλιφόρνια: Νέος Νόμος για την Ασφάλεια της Τεχνητής Νοημοσύνης - Τι Σημαίνει για τις Μεγάλες Εταιρείες Η Γερουσία της Καλιφόρνιας έδωσε την τελική έγκριση σε ένα σημαντικό νομοσχέδιο για την ...

«Πρωπατορικό αμάρτημα»: Καμπανάκι στη βιομηχανία της ΤΝ. Η Anthropic καταστρέφει πειρατικά δεδομένα – Τι σημαίνει για την ΤΝ Ακριβό μάθημα: $1,5 δισ. για εκπαίδευση ΤΝ με κλεμμένα έργα

Η Anthropic πληρώνει $1,5 δισ. σε συγγραφείς

Η Ανθρωπότητα Πληρώνει 1,5 Δισεκατομμύρια Δολάρια σε Συμβιβασμό για Παραβίαση Πνευματικών Δικαιωμάτων με Συγγραφείς Βιβλίων Η εταιρεία τεχνητής νοημοσύνης Anthropic συμφώνησε να καταβάλει τουλάχιστον 1,5 δισεκατομμύρια δολάρια για να διευθετήσει ...

Ο Mustafa Suleyman της Microsoft θεωρεί επικίνδυνη και πρόωρη τη μελέτη της συνείδησης και της «πρόνοιας» των AI, καθώς, όπως λέει, ενισχύει ψυχολογικά προβλήματα στους ανθρώπους και προκαλεί κοινωνικούς διχασμούς. Αντίθετα, εταιρείες όπως οι Anthropic, OpenAI και Google DeepMind επενδύουν στην έρευνα γύρω από την πιθανή συνείδηση των AI και τη σωστή ηθική μεταχείρισή τους. Η συζήτηση διχάζει τη Silicon Valley, με μερικούς να τονίζουν την ανάγκη επιστημονικής διερεύνησης και άλλους, όπως ο Suleyman, να προειδοποιούν για τις επιπτώσεις αυτής της προσέγγισης.

Επικίνδυνη η μελέτη της AI συνείδησης, λέει η Microsoft

Η επικίνδυνη μελέτη της συνείδησης της τεχνητής νοημοσύνης: Μια ανάλυση Η συζήτηση γύρω από τη συνείδηση των μοντέλων τεχνητής νοημοσύνης (AI) και τα δικαιώματα που ενδεχομένως θα πρέπει να τους ...

Η Anthropic ανακοίνωσε νέες δυνατότητες που επιτρέπουν σε κάποια από τα πιο πρόσφατα και μεγαλύτερα μοντέλα της να τερματίζουν συνομιλίες σε αυτό που η εταιρεία περιγράφει ως «σπάνιες, ακραίες περιπτώσεις επίμονης επιβλαβούς ή καταχρηστικής αλληλεπίδρασης από τον χρήστη». Εντυπωσιακά, η Anthropic τονίζει ότι αυτό γίνεται όχι για την προστασία του ανθρώπινου χρήστη, αλλά του ίδιου του AI μοντέλου.

Η Anthropic δίνει στο Claude δικαίωμα τερματισμού διαλόγου

Η Ανθρωπική Παρουσιάζει Νέες Δυνατότητες για Τερματισμό Επικίνδυνων Συνομιλιών με AI Η εταιρεία Ανθρωπική ανακοίνωσε πρόσφατα ότι ορισμένα από τα πιο πρόσφατα και μεγάλα μοντέλα της, γνωστά ως Claude, έχουν ...

Η Anthropic απέκλεισε την OpenAI από την πρόσβαση στο API της, κατηγορώντας την για παραβίαση των όρων χρήσης μέσω χρήσης των εργαλείων του Claude για την ανάπτυξη του ανταγωνιστικού μοντέλου GPT-5. Παρ’ όλα αυτά, διευκρίνισε πως θα συνεχίσει να επιτρέπει την πρόσβαση για σκοπούς ασφάλειας και benchmarking, όχι όμως για ανταγωνιστική χρήση. Η OpenAI δεν αρνήθηκε τη χρήση αλλά τη χαρακτήρισε «βιομηχανικό πρότυπο». Η διαφορά μεταξύ των δύο εταιρειών εστιάζεται στον σκοπό της χρήσης των APIs.

Η Anthropic κατηγορεί OpenAI για παραβίαση όρων χρήσης

Anthropic Αναδιατυπώνει το Μπλοκάρισμα του OpenAI API, Εξακολουθεί να Επιτρέπει Πρόσβαση για Αξιολόγηση Σε μια σημαντική εξέλιξη στον αυξανόμενο ανταγωνισμό στον τομέα της τεχνητής νοημοσύνης, η Anthropic έχει αναδιατυπώσει την ...

Η Anthropic έχει αναπτύξει μια ομάδα από αυτόνομους πράκτορες τεχνητής νοημοσύνης που ελέγχουν ισχυρά μοντέλα, όπως το Claude, για ζητήματα ασφάλειας. Η προσέγγιση θυμίζει ψηφιακό ανοσοποιητικό σύστημα: οι πράκτορες εντοπίζουν και εξουδετερώνουν πιθανούς κινδύνους πριν προκύψουν προβλήματα.

Η Anthropic αναπτύσσει πράκτορες AI για έλεγχο ασφάλειας

Ανθρωποκεντρική προσέγγιση για την ασφάλεια των μοντέλων AI μέσω αυτόνομων πρακτόρων Η Anthropic έχει αναπτύξει ένα σύστημα αυτόνομων πρακτόρων τεχνητής νοημοσύνης με μοναδική αποστολή: την αξιολόγηση ισχυρών μοντέλων, όπως το ...

Page 1 of 5 1 2 5