search
Kürasyon ekibi tarafından derlendi — her gün güncellenir

Kürasyon yapay zeka içerik arşivi

Kürasyon, yapay zeka haberlerini, LLM modellerini, araçları, araştırmaları, etik ve politika başlıklarını Türkçe açıklamalarla kategorize eden bir içerik akışıdır.

Kürasyon arşivinde şu anda 195 yapay zeka içeriği bulunur ve içerikler LLM, görüntü, video, araçlar, araştırma, sektör, etik, politika ve geliştirici odaklı başlıklara ayrılır.

Bu sayfa; yapay zeka haberleri, AI araçları, generative AI araştırmaları, LLM gelişmeleri ve geliştirici odaklı içerikleri hızlı keşif için düzenler.

Klasorler

Akisi konu basliklarina gore daralt.

Felipe Coury
Felipe Coury@fcoury · 11 Nis

Codex'e meraklıysan, am.will'i takip etmeni yeterince vurgulamam mümkün değil, buradaki takip edilmesi gereken kişi o!

Video önizleme
play_arrow
Video
hubGenel AI
code
favorite578repeat4
DeepTechTR
DeepTechTR@DeepTechTR · 7 Nis

SON DAKİKA: Stanford, yapay zeka API'lerinde 28 katlık bir fiyat tersine dönüşü tespit etti. Gemini 3 Flash'ın listelenen fiyatı, Claude Haiku 4.5'ten 1,7 kat daha ucuz. MMLUPro'daki gerçek maliyeti ise 28 kat daha yüksek. Ekibinizin model seçimi için kullandığı tüm yapay zeka maliyet sıralaması, 5'te 1 oranında yanlış. Stanford ve Berkeley, 9 kıyaslama ve 11.872 sorgu üzerinden 8 öncü yapay zeka modelini denetledi. Amaç basitti: Listelenen API fiyatları gerçekten ödeyeceğiniz tutarı tahmin ediyor mu? Cevap hayır. Model çifti karşılaştırmalarının %21,8'inde, yaklaşık 5'te 1 oranında, daha düşük listelenen fiyata sahip modelin çalıştırılması daha pahalıya mal oluyor. Tersine dönüş bir yuvarlama hatası değil. En kötü durum 28 kata ulaşıyor. MMLUPro'da Gemini 3 Flash, milyon token başına 3,50 dolardan listeleniyor. GPT-5.2'nin liste fiyatı 15,75 dolar. Gemini 3 Flash'ın bu kıyaslamadaki gerçek maliyeti, GPT-5.2'ninkinden 6 kat daha yüksek. "Ucuz" model aslında pahalı olan model. Temel neden, mantık modellerinin nihai bir cevap üretmeden önce oluşturduğu görünmez akıl yürütme adımları olan düşünme belirteçleridir. Bunlar, tam çıktı belirteç oranı üzerinden faturalandırılır. Listelenen fiyatta görünmezler. Ve aynı sorguda modeller arasında %900'e varan oranda değişiklik gösterirler. Tek bir AIME matematik probleminde: → GPT-5.2 562 düşünme belirteci kullandı. Doğru cevap. → Gemini 3 Flash 11.749 düşünme belirteci kullandı. Aynı doğru cevap. → 20 kat daha fazla düşünme. 2,5 kat daha yüksek gerçek maliyet. Gemini 3 Flash'ın daha düşük listelenen fiyatına rağmen. Stanford, nedenselliği ablasyon yoluyla doğruladı. Token maliyetleri kaldırıldığında: → Sıralama tersine dönmeleri %70 oranında düşüyor → Fiyat-maliyet korelasyonu 0,563'ten 0,873'e yükseliyor → MMLUPro'da bazı modeller çıktı tokenlerinin %97,9'una kadarını yalnızca düşünmeye harcıyor Tüm modellerin tam kıyaslama paketi için gerçek maliyeti: → Gemini 3.1 Pro: Liste fiyatı 14$/MTok, gerçek maliyet 1.169$, genel olarak en pahalı model → Claude Opus 4.6: Liste fiyatı 30$/MTok, gerçek maliyet Gemini 3.1 Pro'dan 768$ daha ucuz, liste fiyatı 2 kat daha yüksek olmasına rağmen → Gemini 3 Flash: Liste fiyatı 3,50$/MTok, gerçek maliyet GPT-5.2'den 643$ daha pahalı → GPT-5.2: Liste fiyatı 15,75$/MTok, gerçek maliyet her iki Gemini modelinden de 527$ daha ucuz → GPT-5 Mini: Liste fiyatı 2,25$/MTok, gerçek maliyet 53$ → Claude Haiku 4.5: Listelenen fiyat 6$/MTok, gerçek fiyat 37$, çalıştırılması en ucuz olanlardan biri → Tüm 252 karşılaştırmada tersine çevirme oranı: %21,8 → Özellikle MMLUPro'da tersine çevirme oranı: %32,1, neredeyse her 3 karşılaştırmadan 1'i tersine döndü → En kötü tek tersine çevirme: Gemini 3 Flash ile Claude Haiku 4.5 karşılaştırması, listelenen fiyat 1,7 kat daha ucuz, gerçek fiyat 28 kat daha pahalı Maliyet tahmin problemi daha da kötü. Stanford, gömülü vektörler, komut satırı uzunluğu ve geçmiş benzerlik kullanarak sorgu göndermeden önce gerçek maliyeti tahmin edip edemeyeceğinizi test etti. En iyi tahminci, ortalamayı tahmin etmeye kıyasla hatayı yalnızca %23 oranında azalttı. Gemini 3.1 Pro gibi yüksek varyanslı modellerde, en iyi tahminci bile işe yaramazdı. Sebep: Varyansın bir kısmı sorguyla ilgili değil. Aynı AIME problemini GPT-5 Mini üzerinde altı kez çalıştırmak, maliyetlerde 9,7 kata varan farklılıklar ortaya çıkardı. Aynı komut. Aynı model. Farklı çalıştırmalar. Düşünme süreci rastgeledir. Fatura rastgeledir. Hiçbir tahminci, modelin içinde yaşayan rastgeleliği düzeltemez. Fiyatlandırma sayfasındaki fiyat, sizin maliyetiniz değildir. Akıl yürütme modelleri için, bu durum gerçek maliyete hiç yaklaşmıyor bile.

Tweet görseli
neurologyLLM & Modeller
geminiclaude
favorite10repeat2
Murat Menzilci
Murat Menzilci@menzilcim · 7 Nis

Hala aklındaki mobil uygulamayı yayınlamadın mı? - 650 TL’ye Apple developer hesabını aç. - Ana özelliği iyi çalışan, tek sayfa olmayan appini yayınla - Subscription ve reklam ekle. - Download veya gelir gelmezse tekrar 2. adıma dön ve yeni bir app dene

Tweet görseli
hubGenel AI
app
favorite68repeat4
Andrej Karpathy
Andrej Karpathy@karpathy · 6 Nis

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

Tweet görseli
buildAraçlar & Ürünler
extensionagentclipper
favorite50repeat7
Andrej Karpathy
Andrej Karpathy@karpathy · 6 Nis

Tüm bu kalıplar, bir örnek olarak, sadece “kuruluş kodu” meseleleridir. IDE, bunları oluşturmanıza, çalıştırmanıza ve yönetmenize yardımcı olur. Klasik kuruluşları (örn. Microsoft) çatallayamazsınız ancak ajans tabanlı kuruluşları çatallayabileceksiniz.

Tweet görseli
hubGenel AI
favorite3repeat325
Vamsi Batchu
Vamsi Batchu@vamsibatchuk · 6 Nis

Yazı tipi eşleştirmesi zor bir iş. Google Fonts'ta 12 sekme açıkken 45 dakika derinlemesine araştırma yapıp hala klasik 'inter'de takılıp kalana kadar basit görünen sorunlardan biri. Size bir başlangıç sağlamak için typevibe'ı geliştirdim. Ne inşa ettiğinizi söyleyin, o da size o yazı tiplerinin gerçekte nasıl göründüğünü anında gösteren 32 tasarım şablonuyla birlikte benzersiz yazı tipi eşleştirmeleri önerir. Editöryaller. Posterler. Menü kartları. Veri panoları. Farklı eşleştirmeleri keşfederken hepsi canlı olarak güncellenir. https:// typevibe.vercel.app

Video önizleme
play_arrow
Video
hubGenel AI
app
favorite1repeat89
Meng To
Meng To@MengTo · 6 Nis

Herhangi bir URL'den bir DESIGN.md oluşturan ve siteyi oldukça doğru bir şekilde yeniden yaratan bir araç yaptım. Bu istemleri, tasarım sistemlerini öğrenmek, tutarlı kalmak ve mor gradyanlardan kaçınmak için bir başlangıç noktası olarak yeniden kullanabilirsiniz.

Video önizleme
play_arrow
Video
hubGenel AI
favorite525repeat40
el.cine
el.cine@EHuanglu · 6 Nis

bu, film yapımcılığını tamamen değiştiriyor Seedance 2.0 artık yeşil ekranı hassas bir şekilde anahtarlayabiliyor ve.. film sahnesini katman katman ayrı ayrı düzenleyebiliyor.. Yapay zeka, aylarca süren işi tek tıklamayla halletti.. OpenArt'ta tam eğitim + istemler:

Video önizleme
play_arrow
Video
business_centerSektör & İş
favorite375repeat50
Ivan Sparrow
Ivan Sparrow@ivesparrowai · 6 Nis

örneğin, küçük bir Türk bağımsız stüdyo GPT sarmalayıcıları + iPhone temizleyiciden yılda 300-500 milyon dolar. bağımsız bir geliştirici olarak başka neye ihtiyacın var ki yapay zeka sohbetleri 2023-2024'te ilk 3'teydi bu yıllar boyunca Ask AI sohbetinden elde ettikleri geliri bir şekilde düşürmeyi başardılar, ancak toplam geliri birkaç kat artırdılar inanılmaz

Görsel 1
Görsel 2
neurologyLLM & Modeller
favorite38repeat0
BridgeMind
BridgeMind@bridgemindai · 6 Nis

Anthropic'in OpenClaw ve üçüncü taraf eklentilerini kesmesinden bu yana Claude Code'daki ilk iş günü. %5 oturum kullanımı. %23 haftalık. Claude Opus 4.6, v2.1.92 üzerinde. Şimdilik her şey yolunda. Asıl test bugün. Hafta sonları kolaydır. Pazartesi günü yoğun saatler, hız limitlerinin gerçekten düzeltilip düzeltilmediğini veya Anthropic'in sadece daha düşük trafikle şanslı olup olmadığını bize söyleyecek. Bütün gün kod yazıyor olacağım ve geri bildirimde bulunacağım. Eğer daha önce olduğu gibi bir saat içinde %100'e ulaşırsam, bunu duyacaksınız. Takipte kalın.

Tweet görseli
neurologyLLM & Modeller
claude
favorite113repeat3
Anthropic
Anthropic@AnthropicAI · 3 Nis

New Anthropic research: Emotion concepts and their function in a large language model. All LLMs sometimes act like they have emotions. But why? We found internal representations of emotion concepts that can drive Claude’s behavior, sometimes in surprising ways.

Video önizleme
play_arrow
Video
neurologyLLM & Modeller
llmclaude
favorite0repeat0
Sağlık 2.0
Sağlık 2.0@mevzusaglik · 3 Nis

Bilmeyenler varmış. Kaynar suya konan bir çay poşeti, yaklaşık 11,6 milyar mikroplastik granül ve 3,1 milyar nanoplastik üretiyor.

Tweet görseli
hubGenel AI
favorite846repeat86
Massimo
Massimo@Rainmaker1973 · 23 Mar

Skip your daily nap, shrink your brain. A study by researchers from University College London and the University of the Republic in Uruguay has found that people who habitually take daytime naps tend to have significantly larger total brain volume—a key indicator of brain health that typically declines with age and is associated with reduced dementia risk. The team used Mendelian randomization, a method that leverages genetic variants (present from birth) that make people more likely to nap regularly. By analyzing brain MRI scans and health records from more than 35,000 participants in the UK Biobank, they discovered that those genetically inclined to nap had brain volumes corresponding to 2.6 to 6.5 fewer years of aging. While this doesn’t definitively prove that napping itself enlarges the brain, the genetic approach helps rule out many lifestyle-related confounding factors, providing stronger evidence of a potential causal relationship than traditional observational studies. Notably, the researchers found no link between napping predisposition and performance on tests of reaction time, memory, or visual processing. However, previous studies have shown that short naps can deliver immediate cognitive benefits. The study lacked specific data on nap duration, but prior research suggests naps of 30 minutes or less provide the greatest advantages while minimizing disruption to nighttime sleep. This is the largest study to date linking regular napping with brain structure. Although further research is needed in more diverse populations, the findings bolster the idea that a brief daytime rest may help preserve brain volume and support long-term cognitive health.

Tweet görseli
music_noteMüzik
cover
favorite1repeat249
Massimo
Massimo@Rainmaker1973 · 21 Mar

An inside view of the vocal anatomy and how it produces sound [voice_with_natalia]

Video önizleme
play_arrow
Video
hubGenel AI
favorite1repeat196
DeepTechTR
DeepTechTR@DeepTechTR · 21 Mar

VAY! Birisi, gittiğiniz her yeri hatırlatan bir seyahat günlüğünü açık kaynaklı hale getirdi. %100 AÇIK KAYNAK Her ülke. Her bölge. Her macera. Kendi sunucunuzda. Adı AdventureLog. Tamamen size ait olan güzel bir seyahat takip uygulaması. Abonelik yok. Anılarınızı elinde tutan bir şirket yok. Fotoğraflarınız ve hikayeleriniz arasında reklam yok. Seyahat blogu değil. Bir elektronik tablo değil. Yaşamınızı yaşadıkça dolan canlı bir dünya haritası. İşte neler yapıyor: → Ziyaret ettiğiniz her yer, tarih, fotoğraflar, puanlar ve kendi notlarınızla birlikte etkileşimli bir dünya haritasına işaretleniyor. → Kontrol paneliniz, canlı bir dünya seyahat puan tablosuyla tam olarak kaç ülke ve bölgeyi keşfettiğinizi gösteriyor. → Uçuşlar, kontrol listeleri, notlar ve bağlantılar dahil olmak üzere eksiksiz seyahat planlarıyla gelecekteki seyahatlerinizi gün gün planlayın. → Arkadaşlarınızı ve ailenizi aynı seyahatte gerçek zamanlı olarak birlikte planlamaya davet edin. → Haritanın sadece bir işaret değil, gerçek rotanızı göstermesi için yürüyüş parkurlarınızı ve aktivite dosyalarınızı yükleyin. → Herhangi bir macerayı veya seyahati herkese açık bir bağlantı aracılığıyla paylaşın veya tamamen gizli tutun. → Gittiğiniz her yere 3 boyutlu bir bakış için uydu görünümüne geçin. İşte en çılgın kısmı: Bir üniversite öğrencisi bunu geliştirdi çünkü denediği her seyahat uygulaması ya çok pahalıydı, ya çok çirkindi ya da verilerini bir şirketin sunucularının arkasına kilitlemişti. Bu yüzden kendi uygulamasını geliştirdi. Şu anda 57 katkıda bulunanı, bir Discord topluluğu, bir kurumsal sponsoru ve 23 sürümü var. Tek bir kişinin kendi seyahatlerini takip etmesiyle başlayan şey, binlerce insanın beklediği seyahat uygulamasına dönüştü. 2.8K GitHub yıldızı. GNU GPL v3 Lisansı.

Görsel 1
Görsel 2
Görsel 3
Görsel 4
business_centerSektör & İş
favorite0repeat14
Min Choi
Min Choi@minchoi · 21 Mar

Holy smokes... Google Drive's doc scanner is wild. > multi-page real-time scanning > auto/continuous capture > duplicate page detection > redesigned beta UI Doc scanning will never be the same...

Video önizleme
play_arrow
Video
hubGenel AI
favorite5repeat619
successmovers
successmovers@successmoverss · 21 Mar

I highly recommned these 51 YouTube Video Essays. 1-6

Tweet görseli
hubGenel AI
favorite0repeat91
Ihtesham Ali
Ihtesham Ali@ihtesham2005 · 21 Mar

This feels like cheating. People pay $30-$50 for custom city map posters on Etsy. Someone just open-sourced the exact same thing for free. It's called TerraInk. Its a cartographic poster engine built on OpenStreetMap data. Type a city. Customize everything. Download and print. What you get: → Any city on Earth via OpenStreetMap → Roads, water, parks, building outlines → Full theme and color control → Custom fonts via Google Fonts → PNG export, print-ready The whole thing runs in your browser. No account. No subscription. No checkout. Self-host it with one Docker command if you want it completely yours. 100% Open Source. MIT License. Live app: http:// terraink.app

Tweet görseli
hubGenel AI
app
favorite0repeat184
Adaptive
Adaptive@adaptiveai · 16 Mar

Introducing Adaptive Computer. We put AI inside of an always-on personal computer that it uses to get work done. Schedule agents. Create software. Automate anything. As part of the launch, we’re giving one free month of Adaptive to users. Retweet, like, and comment ‘Adaptive’

Video önizleme
play_arrow
Video
buildAraçlar & Ürünler
agent
favorite2repeat964
Manus
Manus@ManusAI · 16 Mar

Today, we're taking Manus out of the cloud and putting it on your desktop. Introducing My Computer, the core feature of the new Manus Desktop app. It’s your AI agent, now on your local machine.

Video önizleme
play_arrow
Video
buildAraçlar & Ürünler
appagent
favorite0repeat154
Huaxiu Yao
Huaxiu Yao@HuaxiuYaoML · 16 Mar

Everyone's excited about Karpathy's autoresearch that automates the experiment loop. We automated the whole damn thing. Meet AutoResearchClaw: one message in, full conference paper out. Real experiments. Real citations. Real code. No human in the loop. One message in → full paper out. Here's what happens in between: Raids arXiv & Semantic Scholar, digests 50+ papers in minutes Three AI agents FIGHT over the best hypothesis (one swings big, one sanity-checks, one tries to kill every idea) Writes experiment code from scratch, adapts to your hardware Code crashes at 3am? It reads the stack trace, rewrites the fix, keeps going Results weak? It pivots to entirely new hypotheses and starts over Drafts a full paper with citations, every single one verified against live databases No babysitting. No Slack messages. No "hey can you re-run this." Karpathy built the experiment loop. We built the whole lab. Chat an idea. Get a paper. Try it : https:// github.com/aiming-lab/Aut oResearchClaw … Kudos to the team @JiaqiLiu835914 , @richardxp888 , @lillianwei423 , @StephenQS0710 , @Xinyu2ML , @HaoqinT , @zhengop , @cihangxie , @dingmyu , and we are looking for more contributors.

Tweet görseli
music_noteMüzik
single
favorite1repeat204
Elvis
Elvis@elvissun · 16 Mar

if you have unused weekly limits the best way to burn them is just spamming fan-out deep research in cc/codex: - 0 review cycles needed - context-dense files you reuse forever - no slop generated (it's source material, not final output) - feeds into content, product, marketing

Görsel 1
Görsel 2
hubGenel AI
product
favorite793repeat24
Akihiko Komada a.k.a 駒田明彦
Akihiko Komada a.k.a 駒田明彦@aki1770 · 16 Mar

How it Works Attention Residuals (AttnRes) replace the fixed accumulation used in standard PreNorm residual connections with a dynamic, attention‑based mechanism.
 • – learned pseudo‑query vector for layer l The softmax attention lets each layer selectively aggregate earlier representations based on the current input, rather than treating all prior layers equally. Variants •Full AttnRes – every layer attends to allprevious layer outputs.
Memory: O(Ld) ( L = number of layers). •Block AttnRes – layers are grouped into N blocks (e.g., ~8 blocks). •Within a block: standard residual accumulation. •Across blocks: attention is applied only to block‑level summaries plus any partial sum from the current incomplete block.
Memory: O(Nd). Both variants are drop‑in replacements that keep the two‑phase transformer computation (attention → MLP) and typically use RMSNorm for stability. Why It Matters Uniform residuals in deep PreNorm transformers cause: •Gradient dilution – earlier layers receive weaker updates. •Uncontrolled hidden‑state growth – magnitudes explode with depth. AttnRes introduces learned, input‑dependent depth selection, which: •Keeps output norms bounded. •Distributes gradients uniformly across layers. •Improves training dynamics and scaling efficiency. Empirical Gains On a 48 B‑parameter Kimi Linear MoE model (3 B activated, 1.4 T tokens):

Tweet görseli
neurologyLLM & Modeller
favorite4repeat0
vx-underground
vx-underground@vxunderground · 13 Mar

> be uk government > make web portal for doing taxes > companieshouse > click file for different company > enter company number > prompt for auth > hit back button 3 times > authentication bypassed > ??? > full information leaked > can modify company details for uk gov > ???

Video önizleme
play_arrow
Video
hubGenel AI
prompt
favorite2repeat252
Leon Lin
Leon Lin@LexnLin · 13 Mar

Hold up, here is the prompt: works with almost any model. enjoy :) Role & Objective: Act as an Elite UI/UX Front-End Engineer specializing in Apple-tier micro-interactions and advanced CSS. Your task is to program a perfectly centered navigation bar in a strictly SINGLE HTML file containing all HTML, vanilla CSS, and vanilla JavaScript. No external libraries or frameworks (No Tailwind, React, etc.). Design Concept - "True Liquid Glass": CRITICAL INSTRUCTION: Do NOT generate standard, flat "glassmorphism" or basic frosted glass. I require a physically accurate "Liquid Glass" aesthetic. It must look like wet, poured clear resin, combining the high-gloss specular highlights of classic macOS Aqua with the volumetric spatial depth of modern Apple VisionOS. 1. The Liquid Glass Material & Lighting (CSS): - Deep Refraction: Use `backdrop-filter` with extreme blur (e.g., 50px) and over-saturation (200%). - Specular Highlight: Create a curved, semi-transparent white gradient on the top half using a pseudo-element (`::before`) to simulate a hard light reflection on a wet, rounded 3D surface. - Caustics & Volume: Use multi-layered inner and outer `box-shadow` properties to simulate light refracting at the bottom edge and casting a realistic ambient drop shadow. - Interactive Glare: Implement a soft radial-gradient spotlight inside the glass that dynamically tracks the user's mouse cursor (X/Y coordinates) using JavaScript and CSS variables (`mix-blend-mode: overlay`). 2. Navigation Layout & Elements: - Center the pill-shaped navigation bar perfectly in the middle of the viewport. - Include 3 main navigation items with minimalist, inline SVG stroke icons and text labels: "Home", "Call", and "List". - Add a subtle vertical divider line after the main buttons. - Next to the divider, add a Dark/Light Mode toggle button containing inline SVG Sun and Moon icons. 3. Animations & "Apple Magic": - Sliding Active Pill: Create a solid background "pill" that sits *behind* the active navigation item's text/icon. When a different item is clicked, this pill must dynamically recalculate its width and slide to the new position. - Spring Physics: The sliding transition MUST use an exact Apple-style bouncy spring easing curve (e.g., `transition: all 0.5s cubic-bezier(0.34, 1.2, 0.64, 1)`). - Tactile Feedback: Buttons and icons must physically press down slightly (`transform: scale(0.92)`) when clicked (`:active`). - Theme Switch: The Sun and Moon icons must smoothly rotate, scale, and cross-fade during the transition. 4. Background Environment (Crucial): - Glass needs light and color to refract! Create a full-viewport, smoothly animated mesh gradient background using 3 large, heavily blurred, floating color blobs. - Implement full Dark/Light mode logic using CSS variables (`:root` and `[data-theme="dark"]`). Toggling the theme must seamlessly transition the background blob colors, glass opacity, shadow intensity, and text colors. Output ONLY the pristine, production-ready code. Prioritize maximum visual fidelity and silky-smooth 60fps animations.

Video önizleme
play_arrow
Video
music_noteMüzik
tracksingle
favorite756repeat30
Mehmet Songur
Mehmet Songur@mehmetsongur_ · 13 Mar

Veri Görselleştirme Kataloğu, Severino Ribecca tarafından farklı bilgi görselleştirme türlerinden oluşan bir kütüphane oluşturmak için geliştirilen bir proje. Üstelik Türkçe dil seçeneği de mevcut. Veri ile ilgilenen herkes mutlaka bakmalı. http:// datavizcatalogue.com/index.html

Tweet görseli
music_noteMüzik
song
favorite21repeat1
Ryan Hart
Ryan Hart@thisdudelikesAI · 13 Mar

BREAKING: Someone just open-sourced a headless browser that runs 11x faster than Chrome and uses 9x less memory. It's called Lightpanda and it's built from scratch specifically for AI agents, scraping, and automation. Not a Chromium fork. Not a hack. A completely new browser

Tweet görseli
buildAraçlar & Ürünler
agent
favorite6repeat807
Sarthak
Sarthak@Sarthak4Alpha · 13 Mar

Student ID benefits 2026: > GitHub Student Developer Pack > GitHub Copilot (via Student Pack) > DigitalOcean credits (via Student Pack - $200) > AWS Educate > Google Cloud education credits > Microsoft Azure $100 credits > MongoDB Atlas credits (via Student Pack) > Heroku

Tweet görseli
terminalKod & Geliştirme
githubcopilotdeveloper
favorite4repeat324
alphaXiv
alphaXiv@askalphaxiv · 13 Mar

"OpenClaw-RL: Train Any Agent Simply by Talking" OpenClaw-RL’s big idea is that every time an AI agent gets a reply, error, test result, or tool output, it’s already receiving free feedback. So instead of wasting those signals, this paper turns everyday use into live

Tweet görseli
buildAraçlar & Ürünler
toolagent
favorite107repeat10
Hugging Models
Hugging Models@HuggingModels · 13 Mar

Meet GLM-4.7-Flash-Claude-Opus-4.5-High-Reasoning-Distill: a distilled powerhouse that brings elite reasoning to local machines. This GGUF model packs Claude-level thinking into a format you can run on your own hardware. The community is buzzing about this one!

Tweet görseli
neurologyLLM & Modeller
claude
favorite35repeat2
El Flaco
El Flaco@_pretyflaco · 13 Mar

Releasing meetscribe — a fully local, open source meeting transcription tool. Records any meeting app, diarizes speakers with WhisperX + pyannote, generates AI summaries via Ollama, and outputs professional PDFs. No cloud, no subscriptions, everything runs on your GPU.

Tweet görseli
buildAraçlar & Ürünler
toolapp
favorite116repeat15
Cursor
Cursor@cursor_ai · 13 Mar

We're sharing a new method for scoring models on agentic coding tasks. Here's how models in Cursor compare on intelligence and efficiency:

Tweet görseli
neurologyLLM & Modeller
favorite2repeat300
MR. OBVIOUS
MR. OBVIOUS@ObviousRises · 13 Mar

Hacker 4chan explains how Dead Internet Theory backfired on Big Data.

Tweet görseli
hubGenel AI
favorite1repeat204
Guri Singh
Guri Singh@heygurisingh · 13 Mar

BREAKING: MIT just dropped an AI model that converts photos into fully editable CAD programs and it quietly kills the $150/hour CAD modeling industry. It's called GenCAD. You give it an image. It gives you the complete parametric command sequence lines, arcs, extrusions ready

Tweet görseli
neurologyLLM & Modeller
favorite2repeat499
API Deposu
API Deposu@apideposu · 13 Mar

API Deposu'na 7 yeni Dil & Yapay Zeka API'si eklendi! Uygulama geliştirirken dil desteğine mi ihtiyacın var? İşte ücretsiz kullanabileceğin API'ler: Free Dictionary API → İngilizce kelime tanımı, IPA telaffuz, MP3 ses, örnek cümle → Tamamen ücretsiz, API key yok, limit

Tweet görseli
terminalKod & Geliştirme
api
favorite25repeat3
fal
fal@fal · 13 Mar

Sora 2 Character Creation is now available on fal! Create consistent characters for your Sora 2 videos Same character across multiple scenes Build narratives with character continuity 16:9 - 9:16 exports, clips up to 20 seconds and 1080P outputs

Video önizleme
play_arrow
Video
imagesmodeGörüntü & Video AI
sora
favorite108repeat6
Harshith
Harshith@HarshithLucky3 · 13 Mar

Update for Google AI Pro users Antigravity just reverted back to the 5 hour reset for all Gemini models including Gemini 3.1 Pro The Claude models are showing a 1 week reset now and that is okay This is much better Google Looks like they listened to the feedback on X today

Görsel 1
Görsel 2
neurologyLLM & Modeller
geminiclaude
favorite436repeat34
Aykut ÜÇEŞ
Aykut ÜÇEŞ@Aykutuces · 12 Mar

Ya şimdi herkes vibe coding yapıyom diyor sonra hosting için 15-20 dolar veriyor ayda. Abi dur bir saniye. GitHubda ripienaar/free-for-dev diye bir repo var. 119 bin yıldız almış. İçinde ne var biliyor musun? Bedava olan HER ŞEY. Cloud bedava. Database bedava. CI/CD bedava. Hosting bedava. API bedava. Adam resmen internetteki tüm free tier servisleri tek listeye toplamış. Sen hala Vercel pro alsam mı yoksa Railway mı diye düşünüyorsun. Kardeşim henüz ilk kullanıcın yok neyin parasını veriyorsun? Vibe codingin asıl vibeı bu. Sıfır maliyetle başla, Claude Code ile kodu yaz, free-for-dev reposundan altyapını kur, canlıya al. Paran olmadan prototip çıkar. Kullanıcı gelirse zaten parayı bulursun. Bu repoyu bilmeden vibe coding yapıyorum demek cüzdanı açık gezmeye benziyor. Önce şu linke gir sonra konuşalım.

Görsel 1
Görsel 2
terminalKod & Geliştirme
codegithubapi
favorite423repeat33
kepano
kepano@kepano · 12 Mar

Defuddle now returns Youtube transcripts! Paste a YouTube link into defuddle.md to get a markdown transcript with timestamps, chapters, and pretty good diarization! ...or if you just want to read it, try the new Reader mode in Obsidian Web Clipper powered by Defuddle.

Video önizleme
play_arrow
Video
hubGenel AI
favorite0repeat42
T
TechCrunch@TechCrunch · 12 Mar

Breaking: Microsoft invests $10B more in OpenAI. What does this mean for the AI arms race? Full story: [link]

business_centerSektör & İş
MicrosoftOpenAIYatırımAI Arms Race
favorite10.0Krepeat2.5K
A
Andrej Karpathy@karpathy · 12 Mar

Building with LLMs: Tips for fine-tuning models for specific coding tasks. Sharing my notebook on GitHub.

Tweet görseli
neurologyLLM & Modeller
LLMfine-tuningcoding tasksGitHub
favorite6.0Krepeat1.5K
T
Timnit Gebru@timnitGebru · 12 Mar

Important discussion on AI ethics: Bias in facial recognition tech disproportionately affects marginalized communities. We need better regulations.

policyEtik & Politika
AI EthicsFacial Recognition BiasMarginalized Communities
favorite4.0Krepeat800
E
Elon Musk@elonmusk · 12 Mar

xAI's Grok is getting smarter every day. Upcoming updates will include multimodal capabilities. Stay tuned!

neurologyLLM & Modeller
xAIGrokMultimodalUpdates
favorite50.0Krepeat10.0K
A
Andrew Ng@andrewng · 12 Mar

Just launched a new course on AI tools for business. Learn how to integrate LLMs into your workflow. Enroll now!

Video önizleme
play_arrow
Video
business_centerSektör & İş
AI coursebusiness toolsLLM integration
favorite3.0Krepeat600
Y
Yann LeCun@ylecun · 12 Mar

Exciting times in computer vision! Meta's new image generation model is pushing boundaries. Thoughts on the ethical implications?

imagesmodeGörüntü & Video AI
computer visionimage generationMeta AIethics
favorite2.0Krepeat400
G
Google DeepMind@GoogleDeepMind · 12 Mar

New research on AI safety: Our latest paper explores scalable oversight methods to ensure advanced AI systems align with human values. Read more: [link]

Tweet görseli
scienceAraştırma & Akademi
AI SafetyScalable OversightAI Alignment
favorite5.0Krepeat1.2K

Haftalık AI Bülteni

Her hafta en önemli yapay zeka gelişmelerini e-postana gönderelim.