Denken Sie, dass AMDs Instinkt MI300X und NVIDIA B200 GPU sehr groß sind?TSMC kündigte kürzlich bei einem North American Technology -Seminar an, dass es eine neue Version der Cowos -Verpackungstechnologie entwickelt, die die Größe der Systemebene (SIP) um mehr als zweimal erhöht.Die OEM -Fabrik sagt voraus, dass diese riesigen Pakete von 120 x 152 mm verwenden und mehrere Kilowatt Strom verbrauchen.
Die neueste Version von Cowos ermöglicht es TSMC, Silizium -Zwischenschichten herzustellen, die ungefähr 3,3 -mal größer sind als Fotomasken (oder Masken, 858 Quadratmillimeter).Daher können Logik, 8 HBM3/HBM3E -Speicherstapel, E/A und andere kleine Chips (Chiplets) bis zu 2831 Quadratmillimeter einnehmen.Die maximale Substratgröße beträgt 80 x 80 Millimeter.AMDs Instinkt MI300X und NVIDIA B200 verwenden diese Technologie, obwohl der B200 -Chip von Nvidia größer ist als der MI300x von AMD.
Die nächste Generation Cowosl wird im Jahr 2026 in Produktion gebracht und kann eine Zwischenschicht von ungefähr dem 5,5 -fachen der Größe der Maske erreichen (was möglicherweise nicht so beeindruckend ist wie die im letzten Jahr angekündigte 6 -fache Maskengröße).Dies bedeutet, dass 4719 Quadratmillimeter für Logik, bis zu 12 HBM -Speicherstapel und andere kleine Chips verfügbar sein werden.Diese Art von SIP erfordert ein größeres Substrat, und nach den Folien von TSMC erwägen wir 100x100 Millimeter.Daher können solche Chips keine OAM -Module verwenden.
TSMC wird hier nicht aufhören: Bis 2027 wird es eine neue Version der Cowos -Technologie haben, die die Größe der Zwischenschicht 8 -mal so groß wie die Größe der Maske bietet und einen Platz von 6864 Quadratmillimetern für Chiplet bietet.Eines der vorgeschlagenen Designs von TSMC basiert auf vier gestapelten integrierten Systemchips (SOICs), gepaart mit 12 HBM4 -Speicherstapeln und zusätzlichen E/A -Chips.Ein solches Gigant würde definitiv eine große Menge an Macht verbrauchen - die hier diskutierten hier sind mehrere Kilowatt und erfordern sehr komplexe Kühltechniken.TSMC erwartet außerdem, dass diese Art von Lösung ein 120x120 -mm -Substrat verwendet.
Interessanterweise präsentierte Broadcom Anfang dieses Jahres einen benutzerdefinierten KI -Chip mit zwei Logikchips und 12 HBM -Speicherstapeln.Wir haben keine spezifischen Spezifikationen für dieses Produkt, aber es sieht größer aus als AMDs Instinkt MI300X und NVIDIA B200, obwohl es nicht so groß ist wie der Plan von TSMC 2027.