Hoje os desenvolvedores precisam realizar vários passos em sua programação para fazer que uma GPU processe dados enviados por uma CPU, normalmente a aplicação aloca um buffer de memória e o código shader lê e escreve informações neste espaço, depois disso, num estágio seguinte é feita a transferência das informações entre CPU e GPU, copiando os dados deste buffer concentrador para outro buffer presente nos dispositivos. Esta forma de funcionamento era a padrão até o DirectX 11.1, o que inseria um grande gargalo nestas transferência de dados entre dispositivos processantes. Com o advento das APUs, este processo ficou mais complicado, pois estes processadores se utilizam de uma GPU e uma CPU no mesmo chip, dispensando longos caminhos de troca de informações pelo hardware do sistema, os dados poderiam ser gravados e lidos de uma forma instantânea bastando que se criasse um novo tipo de acesso preferencial e direto para as memórias de cada dispositivo.

Abrir um canal de comunicação exclusivo entre CPU e GPU é o próximo passo para a revolução da performance no PC, eliminando múltiplos passos de transferência, a indústria poderá dar um salto de performance sem necessariamente precisar aumentar significativamente o investimento em litografias mais avançadas, já que trocando dados mais rapidamente entre estes chips, você terá aplicações muito mais rápidas, sendo que tudo que é gráfico já obtêm um benefício quase imediato com MDB implantando corretamente. Obviamente todo este processo é incremental, não veremos do dia para a noite as melhorias aparecerem, pois isso na prática é uma mudança de paradigma na computação convencional, que só durante alguns anos à frente poderemos colher todos os benefícios.
Junto com o MDB no Windows 8.1, Microsoft também agora suporte linkedição de código shader em tempo de execução, ou seja, o desenvolver poderá pré-compilar códigos de execução e embuti-los diretamente na sua aplicação, dispensando este passo. CUDA 5 e OpenCL 1.2 já contam com este recurso também.