Computer/AI4 Gemma 모델이 새로운 암 치료 경로 발견을 도운 방법 https://blog.google/technology/ai/google-gemma-ai-cancer-therapy-discovery/?utm_source=ai.google&utm_medium=referral How a Gemma model helped discover a new potential cancer therapy pathwayWe’re launching a new 27 billion parameter foundation model for single-cell analysis built on the Gemma family of open models.blog.google 2025년 10월 15일 발표 Google DeepMind와 예일대학교의 공동 연구로 **Cell2Sentence-Scale.. 2025. 10. 17. AI 모델의 정치적 편향 테스트 https://openai.com/index/defining-and-evaluating-political-bias-in-llms/ ChatGPT는 어떤 방향으로든 정치적 편향을 가져서는 안 됩니다. 사람들은 ChatGPT를 학습하고 아이디어를 탐색하는 도구로 사용합니다.이는 사용자가 ChatGPT를 객관적이라고 신뢰할 때만 작동합니다.OpenAI는 Model Spec의 "진실을 함께 추구하기" 원칙에서 ChatGPT를 기본적으로 객관적으로 유지하고 사용자가 통제권을 갖도록 하겠다는 약속을 명시했습니다. OpenAI는 실제 사용을 반영하고 모델의 객관성 유지 능력을 스트레스 테스트하는 정치적 편향 평가를 만들었습니다.평가는 100개 주제에 걸친 약 500개의 프롬프트로 구성되며, 다양한 정치적 성향을 다룹.. 2025. 10. 17. Claude Haiku 4.5 출시 소개 Anthropic은 최신 소형 모델인 Claude Haiku 4.5를 모든 사용자에게 출시했습니다. https://www.anthropic.com/news/claude-haiku-4-5 Introducing Claude Haiku 4.5Claude Haiku 4.5, our latest small model, is available today to all users.www.anthropic.com 주요 특징 및 성능 향상뛰어난 효율성: 불과 5개월 전 최첨단 모델이었던 Claude Sonnet 4와 비슷한 수준의 코딩 성능을 제공하면서도, 비용은 3분의 1 수준으로 저렴해졌고 속도는 두 배 이상 빨라졌습니다.일부 작업에서 Sonnet 4 능가: 컴퓨터 사용과 같은 특정 작업에서는 Claude Sonnet.. 2025. 10. 16. LLM 데이터 중독 공격: 250개 문서로 AI를 해킹할 수 있다 A small number of samples can poison LLMs of any size A small number of samples can poison LLMs of any sizeAnthropic research on data-poisoning attacks in large language modelswww.anthropic.com ChatGPT, Claude와 같은 대형 언어 모델(LLM)은 인터넷의 방대한 텍스트 데이터로 학습됩니다. 그런데 만약 누군가 악의적인 문서를 학습 데이터에 몰래 섞어 넣는다면 어떻게 될까요? Anthropic, 영국 AI 보안 연구소, 앨런 튜링 연구소가 공동으로 진행한 최신 연구는 충격적인 사실을 밝혀냈습니다. 단 250개의 악성 문서만으로 어떤 크기의 LL.. 2025. 10. 10. 이전 1 다음