Category: Uncategorized
-
칼럼 | 꿈의 데이터 레이크하우스가 한층 가까워진다
데이터 레이크하우스 전쟁은 사실상 끝났다. 오픈소스 아파치 아이스버그가 승리했다. 아이스버그의 개발자들이 설립한 스타트업인 타뷸러를 데이터브릭스가 10억 달러(추정)에 인수한 사실도 이 현실을 바꾸지는 못할 것이다. 그럼에도 불구하고 데이터브릭스의 대담한 움직임은 일부 CIO와 전문가들을 혼란스럽게 하고 있다. 레이크하우스 분야의 선구자인 데이터브릭스가 무슨 이유로 타뷸러를 인수하기 위해 그렇게 많은 비용을 지출했는지 납득하기 어렵기 때문이다. 큰 잠재력을 가졌을지라도 타뷸라는… Read more
-
오픈텍스트, SAP 석세스팩터스용 익스텐디드 ECM 24.3 공개
오픈텍스트에 따르면 이번 업데이트에는 HR 솔루션의 기능을 향상시키기 위해 설계된 다양한 프로세스 및 기능 개선 사항이 담겼다. 대표적으로 인공지능 기능 업그레이드, 문서 관리 간소화 및 보안 등이 있다. 먼저 인공 지능(AI) 기능이 대폭 업그레이드됐다. 이를 통해 기업은 직원 파일 내 또는 교육, 건강, 안전, 직원 관계 등 다양한 인사 부서에서 문서를 요약할 때 더 자세한… Read more
-
구글, 소형 원전 기업과 에너지 공급 계약… “AI 전력 수요 대비”
구글이 AI 시스템의 에너지 수요를 충족하기 위해 여러 소형 모듈형 원전(SMR)에서 전력을 구매하는 첫 기업 계약을 체결했다. 이는 AI 기업이 원자력 발전으로 전환하는 중요한 단계일 수 있다. 구글은 블로그 게시물을 통해 카이로스 파워(Kairos Power)와 원자력 에너지 공급 계약을 맺었다고 발표했다. 이 계약에 따라 2030년까지 첫 SMR을 가동하고, 2035년까지 추가 원자로를 가동할 계획이다. 구글은 “주요 과학적… Read more
-
Google AI Research Examines Random Circuit Sampling (RCS) for Evaluating Quantum Computer Performance in the Presence of Noise
Quantum computers are a revolutionary technology that harnesses the principles of quantum mechanics to perform calculations that would be infeasible for classical computers. Evaluating the performance of quantum computers has been a challenging task due to their sensitivity to noise, the complexity of quantum algorithms, and the limited availability of powerful quantum hardware. Decoherence and… Read more
-
Salesforce’s Financial Services Cloud targets ops automation for insurance firms
>To help insurance brokerages tie in disparate systems to manage their operations and increase employee productivity, CRM software provider Salesforce has introduced a new offering in preview, the Financial Services Cloud. Insurance firms, carriers, and brokerages use three or more systems to service clients, according to a study conducted by Arizent Research on behalf of Salesforce that… Read more
-
Thinking LLMs: How Thought Preference Optimization Transforms Language Models to Perform Better Across Logic, Marketing, and Creative Tasks
Large language models (LLMs) have evolved to become powerful tools capable of understanding and responding to user instructions. Based on the transformer architecture, these models predict the next word or token in a sentence, generating responses with remarkable fluency. However, they typically respond without engaging in internal thought processes that could help improve the accuracy… Read more
-
Orthrus: A Mamba-based RNA Foundation Model Designed to Push the Boundaries of RNA Property Prediction
Despite the vast accumulation of genomic data, the RNA regulatory code must still be better understood. Genomic foundation models, pre-trained on large datasets, can adapt RNA representations for biological prediction tasks. However, current models rely on training strategies like masked language modeling and next token prediction, borrowed from domains such as text and vision, which… Read more
-
Cognizant adds multi-agent functionality to AI application platform
Cognizant’s Neuro AI platform will use a multi-agent framework to help enterprises ideate new AI applications.Read More Read more
-
Embodied Agent Interface: An AI Framework for Benchmarking Large Language Models (LLMs) for Embodied Decision Making
Large Language Models (LLMs) need to be evaluated within the framework of embodied decision-making, i.e., the capacity to carry out activities in either digital or physical environments. Even with all of the research and applications that LLMs have seen in this field, there is still a gap in knowledge of their actual capabilities. A portion… Read more
-
SeedLM: A Post-Training Compression Method that Uses Pseudo-Random Generators to Efficiently Encode and Compress LLM Weights
The ever-increasing size of Large Language Models (LLMs) presents a significant challenge for practical deployment. Despite their transformative impact on natural language processing, these models are often hindered by high memory transfer requirements, which pose a bottleneck during autoregressive generation. This results in high energy consumption and substantial inference time, limiting their scalability and use… Read more