Ετικέτα: Anthropic

Ο Mustafa Suleyman της Microsoft θεωρεί επικίνδυνη και πρόωρη τη μελέτη της συνείδησης και της «πρόνοιας» των AI, καθώς, όπως λέει, ενισχύει ψυχολογικά προβλήματα στους ανθρώπους και προκαλεί κοινωνικούς διχασμούς. Αντίθετα, εταιρείες όπως οι Anthropic, OpenAI και Google DeepMind επενδύουν στην έρευνα γύρω από την πιθανή συνείδηση των AI και τη σωστή ηθική μεταχείρισή τους. Η συζήτηση διχάζει τη Silicon Valley, με μερικούς να τονίζουν την ανάγκη επιστημονικής διερεύνησης και άλλους, όπως ο Suleyman, να προειδοποιούν για τις επιπτώσεις αυτής της προσέγγισης.

Επικίνδυνη η μελέτη της AI συνείδησης, λέει η Microsoft

Η επικίνδυνη μελέτη της συνείδησης της τεχνητής νοημοσύνης: Μια ανάλυση Η συζήτηση γύρω από τη συνείδηση των μοντέλων τεχνητής νοημοσύνης (AI) και τα δικαιώματα που ενδεχομένως θα πρέπει να τους ...

Η Anthropic ανακοίνωσε νέες δυνατότητες που επιτρέπουν σε κάποια από τα πιο πρόσφατα και μεγαλύτερα μοντέλα της να τερματίζουν συνομιλίες σε αυτό που η εταιρεία περιγράφει ως «σπάνιες, ακραίες περιπτώσεις επίμονης επιβλαβούς ή καταχρηστικής αλληλεπίδρασης από τον χρήστη». Εντυπωσιακά, η Anthropic τονίζει ότι αυτό γίνεται όχι για την προστασία του ανθρώπινου χρήστη, αλλά του ίδιου του AI μοντέλου.

Η Anthropic δίνει στο Claude δικαίωμα τερματισμού διαλόγου

Η Ανθρωπική Παρουσιάζει Νέες Δυνατότητες για Τερματισμό Επικίνδυνων Συνομιλιών με AI Η εταιρεία Ανθρωπική ανακοίνωσε πρόσφατα ότι ορισμένα από τα πιο πρόσφατα και μεγάλα μοντέλα της, γνωστά ως Claude, έχουν ...

Η Anthropic απέκλεισε την OpenAI από την πρόσβαση στο API της, κατηγορώντας την για παραβίαση των όρων χρήσης μέσω χρήσης των εργαλείων του Claude για την ανάπτυξη του ανταγωνιστικού μοντέλου GPT-5. Παρ’ όλα αυτά, διευκρίνισε πως θα συνεχίσει να επιτρέπει την πρόσβαση για σκοπούς ασφάλειας και benchmarking, όχι όμως για ανταγωνιστική χρήση. Η OpenAI δεν αρνήθηκε τη χρήση αλλά τη χαρακτήρισε «βιομηχανικό πρότυπο». Η διαφορά μεταξύ των δύο εταιρειών εστιάζεται στον σκοπό της χρήσης των APIs.

Η Anthropic κατηγορεί OpenAI για παραβίαση όρων χρήσης

Anthropic Αναδιατυπώνει το Μπλοκάρισμα του OpenAI API, Εξακολουθεί να Επιτρέπει Πρόσβαση για Αξιολόγηση Σε μια σημαντική εξέλιξη στον αυξανόμενο ανταγωνισμό στον τομέα της τεχνητής νοημοσύνης, η Anthropic έχει αναδιατυπώσει την ...

Η Anthropic έχει αναπτύξει μια ομάδα από αυτόνομους πράκτορες τεχνητής νοημοσύνης που ελέγχουν ισχυρά μοντέλα, όπως το Claude, για ζητήματα ασφάλειας. Η προσέγγιση θυμίζει ψηφιακό ανοσοποιητικό σύστημα: οι πράκτορες εντοπίζουν και εξουδετερώνουν πιθανούς κινδύνους πριν προκύψουν προβλήματα.

Η Anthropic αναπτύσσει πράκτορες AI για έλεγχο ασφάλειας

Ανθρωποκεντρική προσέγγιση για την ασφάλεια των μοντέλων AI μέσω αυτόνομων πρακτόρων Η Anthropic έχει αναπτύξει ένα σύστημα αυτόνομων πρακτόρων τεχνητής νοημοσύνης με μοναδική αποστολή: την αξιολόγηση ισχυρών μοντέλων, όπως το ...

Το Πεντάγωνο επενδύει στην AI για υπεροχή και ασφάλεια

Τεχνητή νοημοσύνη: Νέα όπλα στο στρατηγικό οπλοστάσιο ΗΠΑ

Το Πεντάγωνο Απονέμει Συμβόλαια AI σε Μεγάλες Τεχνολογικές Εταιρείες για Στρατιωτική Χρήση Το Πεντάγωνο έχει ανοίξει τις πύλες της τεχνητής νοημοσύνης (AI) για στρατιωτική χρήση, απονέμοντας συμβόλαια αξίας έως και ...

Η Anthropic μελετά όχι μόνο το IQ του Claude—δηλαδή τις γνωστικές του ικανότητες—αλλά και το EQ του, τη συναισθηματική του νοημοσύνη. Καθώς οι χρήστες στρέφονται στην ΤΝ για συναισθηματική υποστήριξη, καθοδήγηση, συμβουλευτική ή και ρομαντική συντροφικότητα, η εταιρεία εξετάζει τις επιδράσεις αυτών των χρήσεων στην ανθρώπινη ευημερία.

Η Anthropic μελετά πώς η AI επηρεάζει την ψυχική ευημερία

Εξερευνώντας τη Συναισθηματική Νοημοσύνη των Τεχνητών Νοημοσύνης: Πώς οι Χρήστες Αλληλεπιδρούν με τον Claude Η μελέτη της νοημοσύνης των τεχνητών νοημοσύνης, όπως του Claude, συχνά επικεντρώνεται στις ικανότητές τους σε ...

Ο ομοσπονδιακός δικαστής William Alsup αποφάσισε ότι η Anthropic μπορεί νόμιμα να εκπαιδεύει τα μοντέλα τεχνητής νοημοσύνης της σε δημοσιευμένα βιβλία χωρίς την άδεια των συγγραφέων, κάνοντας δεκτό το επιχείρημα της «εύλογης χρήσης». Αυτή η απόφαση αποτελεί σημαντικό προηγούμενο υπέρ των εταιρειών τεχνολογίας, σε βάρος συγγραφέων και εκδοτών που προσφεύγουν στη δικαιοσύνη κατά εταιρειών όπως οι OpenAI, Meta, Google κ.ά. Ωστόσο, θα ακολουθήσει δίκη για το αν η Anthropic χρησιμοποίησε πειρατικά αντίγραφα βιβλίων για να φτιάξει μια «κεντρική βιβλιοθήκη», καθώς αυτό μπορεί να συνεπάγεται αποζημιώσεις για παραβίαση πνευματικών δικαιωμάτων.

Δικαστική νίκη της Anthropic για χρήση βιβλίων στην εκπαίδευση AI

Ομοσπονδιακός Δικαστής Υποστηρίζει την Anthropic σε Υπόθεση για Εκπαίδευση Τεχνητής Νοημοσύνης σε Βιβλία Χωρίς Άδεια Συγγραφέων Ένας ομοσπονδιακός δικαστής αποφάσισε υπέρ της Anthropic σε μια υπόθεση που αφορά την εκπαίδευση ...

Η εθνική ασφάλεια στο επίκεντρο της στρατηγικής της Anthropic

Η εθνική ασφάλεια στο επίκεντρο της στρατηγικής της Anthropic

Ο Ειδικός Εθνικής Ασφάλειας Ρίτσαρντ Φοντέιν Διορίζεται στο Trust Μακροπρόθεσμου Οφέλους της Anthropic Η Anthropic, μια Δημόσια Εταιρεία Ωφέλειας με στόχο την ασφαλή μετάβαση μέσω της μετασχηματιστικής Τεχνητής Νοημοσύνης, ανακοίνωσε ...

Η Anthropic παρουσίασε τα Claude Gov, εξειδικευμένα μοντέλα τεχνητής νοημοσύνης για υπηρεσίες εθνικής ασφάλειας των ΗΠΑ, σχεδιασμένα για χρήση σε απόρρητα περιβάλλοντα. Τα μοντέλα αυτά προσφέρουν: Καλύτερο χειρισμό διαβαθμισμένων πληροφοριών Ανώτερη κατανόηση εγγράφων και δεδομένων κυβερνοασφάλειας Βελτιωμένες επιδόσεις σε κρίσιμες γλώσσες και αναλύσεις πληροφοριών Αναπτύχθηκαν σε συνεργασία με κυβερνητικούς φορείς και έχουν περάσει από αυστηρές δοκιμές ασφαλείας. Η ανακοίνωση έρχεται σε περίοδο συζήτησης για τη ρύθμιση της ΤΝ στις ΗΠΑ. Ο CEO Dario Amodei τάσσεται υπέρ της διαφάνειας αντί για παύση ρυθμίσεων, προτείνοντας ενιαία εθνικά πρότυπα. Τα Claude Gov θα μπορούσαν να αξιοποιηθούν σε στρατηγικό σχεδιασμό, ανάλυση πληροφοριών και εκτίμηση απειλών, ενώ εγείρουν ευρύτερα ζητήματα για την ασφάλεια και τη χρήση της ΤΝ στον κρατικό τομέα.

Μοντέλα Claude AI για την εθνική ασφάλεια των ΗΠΑ

Παρουσίαση Εξειδικευμένων Μοντέλων Claude για την Εθνική Ασφάλεια των ΗΠΑ Η εταιρεία Anthropic ανακοίνωσε την ανάπτυξη μιας ειδικής συλλογής μοντέλων τεχνητής νοημοσύνης Claude, σχεδιασμένων αποκλειστικά για πελάτες που ασχολούνται με ...

Η Anthropic ανακοίνωσε τα νέα της μοντέλα τεχνητής νοημοσύνης: Claude Opus 4 και Claude Sonnet 4, τα οποία θέτουν νέα πρότυπα στον τομέα του προγραμματισμού, της σύνθετης λογικής και των αυτόνομων AI πρακτόρων.

Claude 4

Παρουσίαση των νέων μοντέλων Claude Opus 4 και Claude Sonnet 4, αναβαθμίζοντας την τεχνητή νοημοσύνη Σήμερα, ανακοινώνουμε την επόμενη γενιά των μοντέλων Claude: Claude Opus 4 και Claude Sonnet 4, ...

Page 1 of 4 1 2 4