]> code.ossystems Code Review - openembedded-core.git/commitdiff
linux-moblin: Add 2.6.31.5
authorRichard Purdie <rpurdie@linux.intel.com>
Tue, 26 Jan 2010 15:59:18 +0000 (15:59 +0000)
committerRichard Purdie <rpurdie@linux.intel.com>
Tue, 26 Jan 2010 15:59:18 +0000 (15:59 +0000)
Signed-off-by: Richard Purdie <rpurdie@linux.intel.com>
35 files changed:
meta-moblin/packages/linux/linux-moblin-2.6.31.5/MRST-GFX-driver-consolidated.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/close_debug_info_of_rt2860.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/defconfig-netbook [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-build-nonintconfig.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-driver-level-usb-autosuspend.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-usb-uvc-autosuspend.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-dont-wait-for-mouse.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-jbd-longer-commit-interval.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-after-sata.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-dont-blank-display.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-edid-cache.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-run-async.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-silence-acer-message.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-sreadahead.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-touchkit.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.30-non-root-X.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-1-2-timberdale.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-2-2-timberdale.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-bluetooth-suspend.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-fix.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-opregion.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-vblank-fix.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-kms-flip.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-mem-info.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-iegd.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-samsung.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-silence-wacom.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-acpi-cstate-fixup.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-cpuidle.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-n_tty-honor-opost-flag-for-echoes.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-n_tty-move-echoctl-check-and-clean-up-logic.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-timer-fix.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.33-copy-checks.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.33-pit-fix.patch [new file with mode: 0644]
meta-moblin/packages/linux/linux-moblin_2.6.31.5.bb [new file with mode: 0644]

diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/MRST-GFX-driver-consolidated.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/MRST-GFX-driver-consolidated.patch
new file mode 100644 (file)
index 0000000..e7676e3
--- /dev/null
@@ -0,0 +1,44328 @@
+From 42e6f8da6d694e77678b7ffd8a32a5e9ab56efe3 Mon Sep 17 00:00:00 2001
+From: Alan Olsen <alan.r.olsen@intel.com>
+Date: Thu, 15 Oct 2009 10:42:37 -0700
+Subject: [PATCH] Moorestown graphics consolidation patch v2.10
+
+Includes all patches through v2.10 of the PSB drivers as well as
+Alpha2-2.9-mrst-GFX-driver-incremental-restore-MSIreg-in-PCIx.patch.
+
+Signed-off-by: Thomas Hellstrom <thellstrom-at-vmware-dot-com>
+Signed-off-by: Sophia (Chia-Hung) Kuo <chia-hung.s.kuo@intel.com>
+Signed-off-by: Alan Olsen <alan.r.olsen@intel.com>
+---
+ drivers/gpu/drm/Kconfig                        |   12 +
+ drivers/gpu/drm/Makefile                       |    3 +-
+ drivers/gpu/drm/drm_crtc.c                     |  130 ++
+ drivers/gpu/drm/drm_drv.c                      |   13 +-
+ drivers/gpu/drm/drm_global.c                   |  107 +
+ drivers/gpu/drm/drm_irq.c                      |   30 +
+ drivers/gpu/drm/psb/Makefile                   |   19 +
+ drivers/gpu/drm/psb/lnc_topaz.c                |  676 +++++++
+ drivers/gpu/drm/psb/lnc_topaz.h                |  902 +++++++++
+ drivers/gpu/drm/psb/lnc_topazinit.c            | 2058 ++++++++++++++++++++
+ drivers/gpu/drm/psb/psb_bl.c                   |  232 +++
+ drivers/gpu/drm/psb/psb_buffer.c               |  519 +++++
+ drivers/gpu/drm/psb/psb_dpst.c                 |  208 ++
+ drivers/gpu/drm/psb/psb_dpst.h                 |   90 +
+ drivers/gpu/drm/psb/psb_drm.h                  |  716 +++++++
+ drivers/gpu/drm/psb/psb_drv.c                  | 2239 +++++++++++++++++++++
+ drivers/gpu/drm/psb/psb_drv.h                  | 1224 ++++++++++++
+ drivers/gpu/drm/psb/psb_fb.c                   | 1833 +++++++++++++++++
+ drivers/gpu/drm/psb/psb_fb.h                   |   47 +
+ drivers/gpu/drm/psb/psb_fence.c                |  359 ++++
+ drivers/gpu/drm/psb/psb_gtt.c                  |  278 +++
+ drivers/gpu/drm/psb/psb_hotplug.c              |  427 ++++
+ drivers/gpu/drm/psb/psb_hotplug.h              |   96 +
+ drivers/gpu/drm/psb/psb_intel_bios.c           |  309 +++
+ drivers/gpu/drm/psb/psb_intel_bios.h           |  436 +++++
+ drivers/gpu/drm/psb/psb_intel_display.c        | 2484 ++++++++++++++++++++++++
+ drivers/gpu/drm/psb/psb_intel_display.h        |   31 +
+ drivers/gpu/drm/psb/psb_intel_drv.h            |  246 +++
+ drivers/gpu/drm/psb/psb_intel_dsi.c            | 1798 +++++++++++++++++
+ drivers/gpu/drm/psb/psb_intel_i2c.c            |  179 ++
+ drivers/gpu/drm/psb/psb_intel_lvds.c           | 1343 +++++++++++++
+ drivers/gpu/drm/psb/psb_intel_modes.c          |   64 +
+ drivers/gpu/drm/psb/psb_intel_reg.h            | 1015 ++++++++++
+ drivers/gpu/drm/psb/psb_intel_sdvo.c           | 1350 +++++++++++++
+ drivers/gpu/drm/psb/psb_intel_sdvo_regs.h      |  345 ++++
+ drivers/gpu/drm/psb/psb_irq.c                  |  621 ++++++
+ drivers/gpu/drm/psb/psb_mmu.c                  | 1073 ++++++++++
+ drivers/gpu/drm/psb/psb_msvdx.c                |  855 ++++++++
+ drivers/gpu/drm/psb/psb_msvdx.h                |  527 +++++
+ drivers/gpu/drm/psb/psb_msvdxinit.c            |  747 +++++++
+ drivers/gpu/drm/psb/psb_powermgmt.c            | 1146 +++++++++++
+ drivers/gpu/drm/psb/psb_powermgmt.h            |   73 +
+ drivers/gpu/drm/psb/psb_reg.h                  |  574 ++++++
+ drivers/gpu/drm/psb/psb_reset.c                |  484 +++++
+ drivers/gpu/drm/psb/psb_scene.c                |  523 +++++
+ drivers/gpu/drm/psb/psb_scene.h                |  119 ++
+ drivers/gpu/drm/psb/psb_schedule.c             | 1593 +++++++++++++++
+ drivers/gpu/drm/psb/psb_schedule.h             |  181 ++
+ drivers/gpu/drm/psb/psb_setup.c                |   18 +
+ drivers/gpu/drm/psb/psb_sgx.c                  | 1784 +++++++++++++++++
+ drivers/gpu/drm/psb/psb_sgx.h                  |   41 +
+ drivers/gpu/drm/psb/psb_socket.c               |  340 ++++
+ drivers/gpu/drm/psb/psb_ttm_glue.c             |  342 ++++
+ drivers/gpu/drm/psb/psb_umevents.c             |  490 +++++
+ drivers/gpu/drm/psb/psb_umevents.h             |  150 ++
+ drivers/gpu/drm/psb/psb_xhw.c                  |  652 +++++++
+ drivers/gpu/drm/psb/ttm/ttm_agp_backend.c      |  149 ++
+ drivers/gpu/drm/psb/ttm/ttm_bo.c               | 1716 ++++++++++++++++
+ drivers/gpu/drm/psb/ttm/ttm_bo_api.h           |  578 ++++++
+ drivers/gpu/drm/psb/ttm/ttm_bo_driver.h        |  859 ++++++++
+ drivers/gpu/drm/psb/ttm/ttm_bo_util.c          |  536 +++++
+ drivers/gpu/drm/psb/ttm/ttm_bo_vm.c            |  596 ++++++
+ drivers/gpu/drm/psb/ttm/ttm_execbuf_util.c     |  115 ++
+ drivers/gpu/drm/psb/ttm/ttm_execbuf_util.h     |  110 ++
+ drivers/gpu/drm/psb/ttm/ttm_fence.c            |  607 ++++++
+ drivers/gpu/drm/psb/ttm/ttm_fence_api.h        |  277 +++
+ drivers/gpu/drm/psb/ttm/ttm_fence_driver.h     |  309 +++
+ drivers/gpu/drm/psb/ttm/ttm_fence_user.c       |  242 +++
+ drivers/gpu/drm/psb/ttm/ttm_fence_user.h       |  147 ++
+ drivers/gpu/drm/psb/ttm/ttm_lock.c             |  162 ++
+ drivers/gpu/drm/psb/ttm/ttm_lock.h             |  181 ++
+ drivers/gpu/drm/psb/ttm/ttm_memory.c           |  232 +++
+ drivers/gpu/drm/psb/ttm/ttm_memory.h           |  154 ++
+ drivers/gpu/drm/psb/ttm/ttm_object.c           |  444 +++++
+ drivers/gpu/drm/psb/ttm/ttm_object.h           |  269 +++
+ drivers/gpu/drm/psb/ttm/ttm_pat_compat.c       |  178 ++
+ drivers/gpu/drm/psb/ttm/ttm_pat_compat.h       |   41 +
+ drivers/gpu/drm/psb/ttm/ttm_placement_common.h |   98 +
+ drivers/gpu/drm/psb/ttm/ttm_placement_user.c   |  468 +++++
+ drivers/gpu/drm/psb/ttm/ttm_placement_user.h   |  259 +++
+ drivers/gpu/drm/psb/ttm/ttm_regman.h           |   74 +
+ drivers/gpu/drm/psb/ttm/ttm_tt.c               |  655 +++++++
+ drivers/gpu/drm/psb/ttm/ttm_userobj_api.h      |   79 +
+ include/drm/drm.h                              |    1 +
+ include/drm/drmP.h                             |   30 +
+ include/drm/drm_crtc.h                         |   12 +
+ include/drm/drm_mode.h                         |   18 +
+ include/linux/backlight.h                      |    3 +
+ 89 files changed, 43758 insertions(+), 2 deletions(-)
+ create mode 100644 drivers/gpu/drm/drm_global.c
+ create mode 100644 drivers/gpu/drm/psb/Makefile
+ create mode 100644 drivers/gpu/drm/psb/lnc_topaz.c
+ create mode 100644 drivers/gpu/drm/psb/lnc_topaz.h
+ create mode 100644 drivers/gpu/drm/psb/lnc_topazinit.c
+ create mode 100644 drivers/gpu/drm/psb/psb_bl.c
+ create mode 100644 drivers/gpu/drm/psb/psb_buffer.c
+ create mode 100644 drivers/gpu/drm/psb/psb_dpst.c
+ create mode 100644 drivers/gpu/drm/psb/psb_dpst.h
+ create mode 100644 drivers/gpu/drm/psb/psb_drm.h
+ create mode 100644 drivers/gpu/drm/psb/psb_drv.c
+ create mode 100644 drivers/gpu/drm/psb/psb_drv.h
+ create mode 100644 drivers/gpu/drm/psb/psb_fb.c
+ create mode 100644 drivers/gpu/drm/psb/psb_fb.h
+ create mode 100644 drivers/gpu/drm/psb/psb_fence.c
+ create mode 100644 drivers/gpu/drm/psb/psb_gtt.c
+ create mode 100644 drivers/gpu/drm/psb/psb_hotplug.c
+ create mode 100644 drivers/gpu/drm/psb/psb_hotplug.h
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_bios.c
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_bios.h
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_display.c
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_display.h
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_drv.h
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_dsi.c
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_i2c.c
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_lvds.c
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_modes.c
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_reg.h
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_sdvo.c
+ create mode 100644 drivers/gpu/drm/psb/psb_intel_sdvo_regs.h
+ create mode 100644 drivers/gpu/drm/psb/psb_irq.c
+ create mode 100644 drivers/gpu/drm/psb/psb_mmu.c
+ create mode 100644 drivers/gpu/drm/psb/psb_msvdx.c
+ create mode 100644 drivers/gpu/drm/psb/psb_msvdx.h
+ create mode 100644 drivers/gpu/drm/psb/psb_msvdxinit.c
+ create mode 100644 drivers/gpu/drm/psb/psb_powermgmt.c
+ create mode 100644 drivers/gpu/drm/psb/psb_powermgmt.h
+ create mode 100644 drivers/gpu/drm/psb/psb_reg.h
+ create mode 100644 drivers/gpu/drm/psb/psb_reset.c
+ create mode 100644 drivers/gpu/drm/psb/psb_scene.c
+ create mode 100644 drivers/gpu/drm/psb/psb_scene.h
+ create mode 100644 drivers/gpu/drm/psb/psb_schedule.c
+ create mode 100644 drivers/gpu/drm/psb/psb_schedule.h
+ create mode 100644 drivers/gpu/drm/psb/psb_setup.c
+ create mode 100644 drivers/gpu/drm/psb/psb_sgx.c
+ create mode 100644 drivers/gpu/drm/psb/psb_sgx.h
+ create mode 100644 drivers/gpu/drm/psb/psb_socket.c
+ create mode 100644 drivers/gpu/drm/psb/psb_ttm_glue.c
+ create mode 100644 drivers/gpu/drm/psb/psb_umevents.c
+ create mode 100644 drivers/gpu/drm/psb/psb_umevents.h
+ create mode 100644 drivers/gpu/drm/psb/psb_xhw.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_agp_backend.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_bo.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_bo_api.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_bo_driver.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_bo_util.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_bo_vm.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_execbuf_util.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_execbuf_util.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_fence.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_fence_api.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_fence_driver.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_fence_user.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_fence_user.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_lock.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_lock.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_memory.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_memory.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_object.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_object.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_pat_compat.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_pat_compat.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_placement_common.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_placement_user.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_placement_user.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_regman.h
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_tt.c
+ create mode 100644 drivers/gpu/drm/psb/ttm/ttm_userobj_api.h
+
+diff --git a/drivers/gpu/drm/Kconfig b/drivers/gpu/drm/Kconfig
+index 39b393d..9bd8ca1 100644
+--- a/drivers/gpu/drm/Kconfig
++++ b/drivers/gpu/drm/Kconfig
+@@ -143,3 +143,15 @@ config DRM_SAVAGE
+       help
+         Choose this option if you have a Savage3D/4/SuperSavage/Pro/Twister
+         chipset. If M is selected the module will be called savage.
++
++config DRM_PSB
++        tristate "Intel Poulsbo/Moorestown"
++        depends on DRM && PCI
++        select FB_CFB_COPYAREA
++        select FB_CFB_FILLRECT
++        select FB_CFB_IMAGEBLIT
++        select MRST_RAR_HANDLER
++        help
++          Choose this option if you have a Poulsbo or Moorestown platform.
++          If M is selected the module will be called psb.
++
+diff --git a/drivers/gpu/drm/Makefile b/drivers/gpu/drm/Makefile
+index d76f167..4989b1e 100644
+--- a/drivers/gpu/drm/Makefile
++++ b/drivers/gpu/drm/Makefile
+@@ -15,12 +15,13 @@ drm-y       :=     drm_auth.o drm_bufs.o drm_cache.o \
+               drm_agpsupport.o drm_scatter.o ati_pcigart.o drm_pci.o \
+               drm_sysfs.o drm_hashtab.o drm_sman.o drm_mm.o \
+               drm_crtc.o drm_crtc_helper.o drm_modes.o drm_edid.o \
+-              drm_info.o drm_debugfs.o
++              drm_info.o drm_debugfs.o drm_global.o
+ drm-$(CONFIG_COMPAT) += drm_ioc32.o
+ obj-$(CONFIG_DRM)     += drm.o
+ obj-$(CONFIG_DRM_TTM) += ttm/
++obj-$(CONFIG_DRM_PSB)   +=psb/
+ obj-$(CONFIG_DRM_TDFX)        += tdfx/
+ obj-$(CONFIG_DRM_R128)        += r128/
+ obj-$(CONFIG_DRM_RADEON)+= radeon/
+diff --git a/drivers/gpu/drm/drm_crtc.c b/drivers/gpu/drm/drm_crtc.c
+index 2f631c7..11cd2e8 100644
+--- a/drivers/gpu/drm/drm_crtc.c
++++ b/drivers/gpu/drm/drm_crtc.c
+@@ -146,6 +146,7 @@ static struct drm_conn_prop_enum_list drm_connector_enum_list[] =
+       { DRM_MODE_CONNECTOR_DisplayPort, "DisplayPort", 0 },
+       { DRM_MODE_CONNECTOR_HDMIA, "HDMI Type A", 0 },
+       { DRM_MODE_CONNECTOR_HDMIB, "HDMI Type B", 0 },
++      { DRM_MODE_CONNECTOR_MIPI, "MIPI", 0 },
+ };
+ static struct drm_prop_enum_list drm_encoder_enum_list[] =
+@@ -154,6 +155,7 @@ static struct drm_prop_enum_list drm_encoder_enum_list[] =
+       { DRM_MODE_ENCODER_TMDS, "TMDS" },
+       { DRM_MODE_ENCODER_LVDS, "LVDS" },
+       { DRM_MODE_ENCODER_TVDAC, "TV" },
++      { DRM_MODE_ENCODER_MIPI, "MIPI" },
+ };
+ char *drm_get_encoder_name(struct drm_encoder *encoder)
+diff --git a/drivers/gpu/drm/drm_drv.c b/drivers/gpu/drm/drm_drv.c
+index b7f3a41..81195a7 100644
+--- a/drivers/gpu/drm/drm_drv.c
++++ b/drivers/gpu/drm/drm_drv.c
+@@ -344,6 +345,8 @@ static int __init drm_core_init(void)
+       DRM_INFO("Initialized %s %d.%d.%d %s\n",
+                CORE_NAME, CORE_MAJOR, CORE_MINOR, CORE_PATCHLEVEL, CORE_DATE);
++      drm_global_init();
++
+       return 0;
+ err_p3:
+       drm_sysfs_destroy();
+@@ -357,6 +360,7 @@ err_p1:
+ static void __exit drm_core_exit(void)
+ {
++      drm_global_release();
+       remove_proc_entry("dri", NULL);
+       debugfs_remove(drm_debugfs_root);
+       drm_sysfs_destroy();
+@@ -408,9 +412,16 @@ static int drm_version(struct drm_device *dev, void *data,
+  * Looks up the ioctl function in the ::ioctls table, checking for root
+  * previleges if so required, and dispatches to the respective function.
+  */
++
+ int drm_ioctl(struct inode *inode, struct file *filp,
+             unsigned int cmd, unsigned long arg)
+ {
++      return drm_unlocked_ioctl(filp, cmd, arg);
++}
++EXPORT_SYMBOL(drm_ioctl);
++
++long drm_unlocked_ioctl(struct file *filp, unsigned int cmd, unsigned long arg)
++{
+       struct drm_file *file_priv = filp->private_data;
+       struct drm_device *dev = file_priv->minor->dev;
+       struct drm_ioctl_desc *ioctl;
+@@ -493,7 +504,7 @@ int drm_ioctl(struct inode *inode, struct file *filp,
+       return retcode;
+ }
+-EXPORT_SYMBOL(drm_ioctl);
++EXPORT_SYMBOL(drm_unlocked_ioctl);
+ struct drm_local_map *drm_getsarea(struct drm_device *dev)
+ {
+diff --git a/drivers/gpu/drm/drm_global.c b/drivers/gpu/drm/drm_global.c
+new file mode 100644
+index 0000000..e054c4f
+--- /dev/null
++++ b/drivers/gpu/drm/drm_global.c
+@@ -0,0 +1,107 @@
++/**************************************************************************
++ *
++ * Copyright 2008-2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++#include <drmP.h>
++struct drm_global_item {
++      struct mutex mutex;
++      void *object;
++      int refcount;
++};
++
++static struct drm_global_item glob[DRM_GLOBAL_NUM];
++
++void drm_global_init(void)
++{
++      int i;
++
++      for (i = 0; i < DRM_GLOBAL_NUM; ++i) {
++              struct drm_global_item *item = &glob[i];
++              mutex_init(&item->mutex);
++              item->object = NULL;
++              item->refcount = 0;
++      }
++}
++
++void drm_global_release(void)
++{
++      int i;
++      for (i = 0; i < DRM_GLOBAL_NUM; ++i) {
++              struct drm_global_item *item = &glob[i];
++              BUG_ON(item->object != NULL);
++              BUG_ON(item->refcount != 0);
++      }
++}
++
++int drm_global_item_ref(struct drm_global_reference *ref)
++{
++      int ret;
++      struct drm_global_item *item = &glob[ref->global_type];
++      void *object;
++
++      mutex_lock(&item->mutex);
++      if (item->refcount == 0) {
++              item->object = kmalloc(ref->size, GFP_KERNEL);
++              if (unlikely(item->object == NULL)) {
++                      ret = -ENOMEM;
++                      goto out_err;
++              }
++
++              ref->object = item->object;
++              ret = ref->init(ref);
++              if (unlikely(ret != 0))
++                      goto out_err;
++
++              ++item->refcount;
++      }
++      ref->object = item->object;
++      object = item->object;
++      mutex_unlock(&item->mutex);
++      return 0;
++      out_err:
++      kfree(item->object);
++      mutex_unlock(&item->mutex);
++      item->object = NULL;
++      return ret;
++}
++
++EXPORT_SYMBOL(drm_global_item_ref);
++
++void drm_global_item_unref(struct drm_global_reference *ref)
++{
++      struct drm_global_item *item = &glob[ref->global_type];
++
++      mutex_lock(&item->mutex);
++      BUG_ON(item->refcount == 0);
++      BUG_ON(ref->object != item->object);
++      if (--item->refcount == 0) {
++              ref->release(ref);
++              kfree(item->object);
++              item->object = NULL;
++      }
++      mutex_unlock(&item->mutex);
++}
++
++EXPORT_SYMBOL(drm_global_item_unref);
+diff --git a/drivers/gpu/drm/psb/Makefile b/drivers/gpu/drm/psb/Makefile
+new file mode 100644
+index 0000000..67319ba
+--- /dev/null
++++ b/drivers/gpu/drm/psb/Makefile
+@@ -0,0 +1,19 @@
++#
++# Makefile for the drm device driver.  This driver provides support for the
++# Direct Rendering Infrastructure (DRI) in XFree86 4.1.0 and higher.
++
++ccflags-y := -Idrivers/gpu/drm/psb -Iinclude/drm -Iinclude/linux
++
++psb-y    := psb_drv.o psb_mmu.o psb_sgx.o psb_irq.o psb_fence.o \
++              psb_buffer.o psb_gtt.o psb_schedule.o psb_scene.o \
++              psb_reset.o psb_xhw.o psb_msvdx.o psb_bl.o psb_intel_bios.o\
++              psb_umevents.o psb_hotplug.o psb_socket.o psb_dpst.o \
++              psb_powermgmt.o lnc_topaz.o lnc_topazinit.o \
++              psb_msvdxinit.o psb_ttm_glue.o psb_fb.o psb_setup.o \
++              ttm/ttm_object.o ttm/ttm_lock.o ttm/ttm_fence_user.o \
++              ttm/ttm_fence.o ttm/ttm_tt.o ttm/ttm_execbuf_util.o \
++              ttm/ttm_bo.o ttm/ttm_bo_util.o ttm/ttm_placement_user.o \
++              ttm/ttm_bo_vm.o ttm/ttm_pat_compat.o ttm/ttm_memory.o
++
++obj-$(CONFIG_DRM_PSB) += psb.o
++
+diff --git a/drivers/gpu/drm/psb/lnc_topaz.c b/drivers/gpu/drm/psb/lnc_topaz.c
+new file mode 100644
+index 0000000..adabac5
+--- /dev/null
++++ b/drivers/gpu/drm/psb/lnc_topaz.c
+@@ -0,0 +1,676 @@
++/**
++ * file lnc_topaz.c
++ * TOPAZ I/O operations and IRQ handling
++ *
++ */
++
++/**************************************************************************
++ *
++ * Copyright (c) 2007 Intel Corporation, Hillsboro, OR, USA
++ * Copyright (c) Imagination Technologies Limited, UK
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++/* include headers */
++/* #define DRM_DEBUG_CODE 2 */
++
++#include <drm/drmP.h>
++#include <drm/drm_os_linux.h>
++
++#include "psb_drv.h"
++#include "psb_drm.h"
++#include "lnc_topaz.h"
++#include "psb_powermgmt.h"
++
++#include <linux/io.h>
++#include <linux/delay.h>
++
++
++/* static function define */
++static int lnc_topaz_deliver_command(struct drm_device *dev,
++                                   struct ttm_buffer_object *cmd_buffer,
++                                   unsigned long cmd_offset,
++                                   unsigned long cmd_size,
++                                   void **topaz_cmd, uint32_t sequence,
++                                   int copy_cmd);
++static int lnc_topaz_send(struct drm_device *dev, void *cmd,
++                      unsigned long cmd_size, uint32_t sync_seq);
++static int lnc_mtx_send(struct drm_psb_private *dev_priv, const void *cmd);
++static int lnc_topaz_dequeue_send(struct drm_device *dev);
++static int lnc_topaz_save_command(struct drm_device *dev, void *cmd,
++                      unsigned long cmd_size, uint32_t sequence);
++
++void lnc_topaz_interrupt(struct drm_device *dev, uint32_t topaz_stat)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      uint32_t clr_flag = lnc_topaz_queryirq(dev);
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++      uint32_t cur_seq;
++
++      lnc_topaz_clearirq(dev, clr_flag);
++
++      /* ignore non-SYNC interrupts */
++      if ((CCB_CTRL_SEQ(dev_priv) & 0x8000) == 0)
++              return;
++
++      cur_seq = *(uint32_t *)topaz_priv->topaz_sync_addr;
++
++      PSB_DEBUG_IRQ("TOPAZ:Got SYNC IRQ,sync seq:0x%08x (MTX) vs 0x%08x\n",
++              cur_seq, dev_priv->sequence[LNC_ENGINE_ENCODE]);
++
++      psb_fence_handler(dev, LNC_ENGINE_ENCODE);
++
++      /* save frame skip flag for query */
++      topaz_priv->frame_skip = CCB_CTRL_FRAMESKIP(dev_priv);
++
++      topaz_priv->topaz_busy = 1;
++      lnc_topaz_dequeue_send(dev);
++
++      if (drm_topaz_pmpolicy == PSB_PMPOLICY_POWERDOWN)
++              schedule_delayed_work(&dev_priv->scheduler.topaz_suspend_wq, 0);
++}
++
++static int lnc_submit_encode_cmdbuf(struct drm_device *dev,
++                      struct ttm_buffer_object *cmd_buffer,
++                      unsigned long cmd_offset, unsigned long cmd_size,
++                      struct ttm_fence_object *fence)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      unsigned long irq_flags;
++      int ret = 0;
++      void *cmd;
++      uint32_t sequence = dev_priv->sequence[LNC_ENGINE_ENCODE];
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      PSB_DEBUG_GENERAL("TOPAZ: command submit\n");
++
++      PSB_DEBUG_GENERAL("TOPAZ: topaz busy = %d\n", topaz_priv->topaz_busy);
++
++      if (topaz_priv->topaz_fw_loaded == 0) {
++              /* #.# load fw to driver */
++              PSB_DEBUG_INIT("TOPAZ: load /lib/firmware/topaz_fw.bin\n");
++              ret = topaz_init_fw(dev);
++              if (ret != 0) {
++                      /* FIXME: find a proper return value */
++                      DRM_ERROR("TOPAX:load /lib/firmware/topaz_fw.bin fail,"
++                              "ensure udevd is configured correctly!\n");
++
++                      return -EFAULT;
++              }
++              topaz_priv->topaz_fw_loaded = 1;
++      }
++
++      /* # schedule watchdog */
++      /* psb_schedule_watchdog(dev_priv); */
++
++      /* # spin lock irq save [msvdx_lock] */
++      spin_lock_irqsave(&topaz_priv->topaz_lock, irq_flags);
++
++      /* # if topaz need to reset, reset it */
++      if (topaz_priv->topaz_needs_reset) {
++              /* #.# reset it */
++              spin_unlock_irqrestore(&topaz_priv->topaz_lock, irq_flags);
++              PSB_DEBUG_GENERAL("TOPAZ: needs reset.\n");
++
++              if (lnc_topaz_reset(dev_priv)) {
++                      ret = -EBUSY;
++                      DRM_ERROR("TOPAZ: reset failed.\n");
++                      return ret;
++              }
++
++              PSB_DEBUG_GENERAL("TOPAZ: reset ok.\n");
++
++              /* #.# upload firmware */
++              if (topaz_setup_fw(dev, topaz_priv->topaz_cur_codec)) {
++                      DRM_ERROR("TOPAZ: upload FW to HW failed\n");
++                      return -EBUSY;
++              }
++
++              spin_lock_irqsave(&topaz_priv->topaz_lock, irq_flags);
++      }
++
++      if (!topaz_priv->topaz_busy) {
++              /* # direct map topaz command if topaz is free */
++              PSB_DEBUG_GENERAL("TOPAZ:direct send command,sequence %08x \n",
++                         sequence);
++
++              topaz_priv->topaz_busy = 1;
++              spin_unlock_irqrestore(&topaz_priv->topaz_lock, irq_flags);
++
++              ret = lnc_topaz_deliver_command(dev, cmd_buffer, cmd_offset,
++                                              cmd_size, NULL, sequence, 0);
++
++              if (ret) {
++                      DRM_ERROR("TOPAZ: failed to extract cmd...\n");
++                      return ret;
++              }
++      } else {
++              PSB_DEBUG_GENERAL("TOPAZ: queue command,sequence %08x \n",
++                              sequence);
++              cmd = NULL;
++
++              spin_unlock_irqrestore(&topaz_priv->topaz_lock, irq_flags);
++
++              ret = lnc_topaz_deliver_command(dev, cmd_buffer, cmd_offset,
++                                              cmd_size, &cmd, sequence, 1);
++              if (cmd == NULL || ret) {
++                      DRM_ERROR("TOPAZ: map command for save fialed\n");
++                      return ret;
++              }
++
++              ret = lnc_topaz_save_command(dev, cmd, cmd_size, sequence);
++              if (ret)
++                      DRM_ERROR("TOPAZ: save command failed\n");
++      }
++
++      return ret;
++}
++
++static int lnc_topaz_save_command(struct drm_device *dev, void *cmd,
++                      unsigned long cmd_size, uint32_t sequence)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct lnc_topaz_cmd_queue *topaz_cmd;
++      unsigned long irq_flags;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      PSB_DEBUG_GENERAL("TOPAZ: queue command,sequence: %08x..\n",
++                      sequence);
++
++      topaz_cmd = kzalloc(sizeof(struct lnc_topaz_cmd_queue),
++                      GFP_KERNEL);
++      if (topaz_cmd == NULL) {
++              mutex_unlock(&topaz_priv->topaz_mutex);
++              DRM_ERROR("TOPAZ: out of memory....\n");
++              return -ENOMEM;
++      }
++
++      topaz_cmd->cmd = cmd;
++      topaz_cmd->cmd_size = cmd_size;
++      topaz_cmd->sequence = sequence;
++
++      spin_lock_irqsave(&topaz_priv->topaz_lock, irq_flags);
++      list_add_tail(&topaz_cmd->head, &topaz_priv->topaz_queue);
++      if (!topaz_priv->topaz_busy) {
++              /* topaz_priv->topaz_busy = 1; */
++              PSB_DEBUG_GENERAL("TOPAZ: need immediate dequeue...\n");
++              lnc_topaz_dequeue_send(dev);
++              PSB_DEBUG_GENERAL("TOPAZ: after dequeue command\n");
++      }
++
++      spin_unlock_irqrestore(&topaz_priv->topaz_lock, irq_flags);
++
++      return 0;
++}
++
++
++int lnc_cmdbuf_video(struct drm_file *priv,
++              struct list_head *validate_list,
++              uint32_t fence_type,
++              struct drm_psb_cmdbuf_arg *arg,
++              struct ttm_buffer_object *cmd_buffer,
++              struct psb_ttm_fence_rep *fence_arg)
++{
++      struct drm_device *dev = priv->minor->dev;
++      struct ttm_fence_object *fence = NULL;
++      int ret;
++
++      ret = lnc_submit_encode_cmdbuf(dev, cmd_buffer, arg->cmdbuf_offset,
++                                    arg->cmdbuf_size, fence);
++      if (ret)
++              return ret;
++
++      /* workaround for interrupt issue */
++      psb_fence_or_sync(priv, LNC_ENGINE_ENCODE, fence_type, arg->fence_flags,
++                        validate_list, fence_arg, &fence);
++
++      if (fence)
++              ttm_fence_object_unref(&fence);
++
++      mutex_lock(&cmd_buffer->mutex);
++      if (cmd_buffer->sync_obj != NULL)
++              ttm_fence_sync_obj_unref(&cmd_buffer->sync_obj);
++      mutex_unlock(&cmd_buffer->mutex);
++
++      return 0;
++}
++
++static int lnc_topaz_sync(struct drm_device *dev, uint32_t sync_seq)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      uint32_t sync_cmd[3];
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++#if 0
++      struct ttm_fence_device *fdev = &dev_priv->fdev;
++      struct ttm_fence_class_manager *fc =
++          &fdev->fence_class[LNC_ENGINE_ENCODE];
++      unsigned long irq_flags;
++#endif
++#if LNC_TOPAZ_NO_IRQ
++      uint32_t *sync_p = (uint32_t *)topaz_priv->topaz_sync_addr;
++      int count = 10000;
++      uint32_t cur_seq;
++#endif
++
++      /* insert a SYNC command here */
++      topaz_priv->topaz_sync_cmd_seq = (1 << 15) |
++              topaz_priv->topaz_cmd_seq++;
++      sync_cmd[0] = 1 | (MTX_CMDID_SYNC << 1) | (3 << 8) |
++              (topaz_priv->topaz_sync_cmd_seq << 16);
++      sync_cmd[1] = topaz_priv->topaz_sync_offset;
++      sync_cmd[2] = sync_seq;
++
++      PSB_DEBUG_GENERAL("TOPAZ:MTX_CMDID_SYNC: size(3),cmd seq (0x%04x),"
++                      "sync_seq (0x%08x)\n",
++                      topaz_priv->topaz_sync_cmd_seq, sync_seq);
++
++      lnc_mtx_send(dev_priv, sync_cmd);
++
++#if LNC_TOPAZ_NO_IRQ /* workaround for interrupt issue */
++      /* # poll topaz register for certain times */
++      while (count && *sync_p != sync_seq) {
++              DRM_UDELAY(100);
++              --count;
++      }
++      if ((count == 0) && (*sync_p != sync_seq)) {
++              DRM_ERROR("TOPAZ: wait sycn timeout (0x%08x),actual 0x%08x\n",
++                      sync_seq, *sync_p);
++              return -EBUSY;
++      }
++      PSB_DEBUG_GENERAL("TOPAZ: SYNC done, seq=0x%08x\n", *sync_p);
++
++      topaz_priv->topaz_busy = 0;
++
++      /* XXX: check psb_fence_handler is suitable for topaz */
++      cur_seq = *sync_p;
++#if 0
++      write_lock_irqsave(&fc->lock, irq_flags);
++      ttm_fence_handler(fdev, LNC_ENGINE_ENCODE,
++                      cur_seq,
++                      _PSB_FENCE_TYPE_EXE, 0);
++      write_unlock_irqrestore(&fc->lock, irq_flags);
++#endif
++#endif
++      return 0;
++}
++
++int
++lnc_topaz_deliver_command(struct drm_device *dev,
++                        struct ttm_buffer_object *cmd_buffer,
++                        unsigned long cmd_offset, unsigned long cmd_size,
++                        void **topaz_cmd, uint32_t sequence,
++                        int copy_cmd)
++{
++      unsigned long cmd_page_offset = cmd_offset & ~PAGE_MASK;
++      struct ttm_bo_kmap_obj cmd_kmap;
++      bool is_iomem;
++      int ret;
++      unsigned char *cmd_start, *tmp;
++
++      ret = ttm_bo_kmap(cmd_buffer, cmd_offset >> PAGE_SHIFT, 2,
++                      &cmd_kmap);
++      if (ret) {
++              DRM_ERROR("TOPAZ: drm_bo_kmap failed: %d\n", ret);
++              return ret;
++      }
++      cmd_start = (unsigned char *) ttm_kmap_obj_virtual(&cmd_kmap,
++                                      &is_iomem) + cmd_page_offset;
++
++      if (copy_cmd) {
++              PSB_DEBUG_GENERAL("TOPAZ: queue commands\n");
++              tmp = kzalloc(cmd_size, GFP_KERNEL);
++              if (tmp == NULL) {
++                      ret = -ENOMEM;
++                      goto out;
++              }
++              memcpy(tmp, cmd_start, cmd_size);
++              *topaz_cmd = tmp;
++      } else {
++              PSB_DEBUG_GENERAL("TOPAZ: directly send the command\n");
++              ret = lnc_topaz_send(dev, cmd_start, cmd_size, sequence);
++              if (ret) {
++                      DRM_ERROR("TOPAZ: commit commands failed.\n");
++                      ret = -EINVAL;
++              }
++      }
++
++out:
++      PSB_DEBUG_GENERAL("TOPAZ:cmd_size(%ld), sequence(%d) copy_cmd(%d)\n",
++                      cmd_size, sequence, copy_cmd);
++
++      ttm_bo_kunmap(&cmd_kmap);
++
++      return ret;
++}
++
++int
++lnc_topaz_send(struct drm_device *dev, void *cmd,
++      unsigned long cmd_size, uint32_t sync_seq)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      int ret = 0;
++      unsigned char *command = (unsigned char *) cmd;
++      struct topaz_cmd_header *cur_cmd_header;
++      uint32_t cur_cmd_size, cur_cmd_id;
++      uint32_t codec;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      PSB_DEBUG_GENERAL("TOPAZ: send the command in the buffer one by one\n");
++
++      while (cmd_size > 0) {
++              cur_cmd_header = (struct topaz_cmd_header *) command;
++              cur_cmd_size = cur_cmd_header->size * 4;
++              cur_cmd_id = cur_cmd_header->id;
++
++              switch (cur_cmd_id) {
++              case MTX_CMDID_SW_NEW_CODEC:
++                      codec = *((uint32_t *) cmd + 1);
++
++                      PSB_DEBUG_GENERAL("TOPAZ: setup new codec %s (%d)\n",
++                                      codec_to_string(codec), codec);
++                      if (topaz_setup_fw(dev, codec)) {
++                              DRM_ERROR("TOPAZ: upload FW to HW failed\n");
++                              return -EBUSY;
++                      }
++
++                      topaz_priv->topaz_cur_codec = codec;
++                      break;
++
++              case MTX_CMDID_SW_ENTER_LOWPOWER:
++                      PSB_DEBUG_GENERAL("TOPAZ: enter lowpower.... \n");
++                      PSB_DEBUG_GENERAL("XXX: implement it\n");
++                      break;
++
++              case MTX_CMDID_SW_LEAVE_LOWPOWER:
++                      PSB_DEBUG_GENERAL("TOPAZ: leave lowpower... \n");
++                      PSB_DEBUG_GENERAL("XXX: implement it\n");
++                      break;
++
++                      /* ordinary commmand */
++              case MTX_CMDID_START_PIC:
++                      /* XXX: specially handle START_PIC hw command */
++                      CCB_CTRL_SET_QP(dev_priv,
++                                      *(command + cur_cmd_size - 4));
++                      /* strip the QP parameter (it's software arg) */
++                      cur_cmd_header->size--;
++              default:
++                      cur_cmd_header->seq = 0x7fff &
++                              topaz_priv->topaz_cmd_seq++;
++
++                      PSB_DEBUG_GENERAL("TOPAZ: %s: size(%d),"
++                                      " seq (0x%04x)\n",
++                                      cmd_to_string(cur_cmd_id),
++                                      cur_cmd_size, cur_cmd_header->seq);
++                      ret = lnc_mtx_send(dev_priv, command);
++                      if (ret) {
++                              DRM_ERROR("TOPAZ: error -- ret(%d)\n", ret);
++                              goto out;
++                      }
++                      break;
++              }
++
++              command += cur_cmd_size;
++              cmd_size -= cur_cmd_size;
++      }
++      lnc_topaz_sync(dev, sync_seq);
++out:
++      return ret;
++}
++
++static int lnc_mtx_send(struct drm_psb_private *dev_priv, const void *cmd)
++{
++      struct topaz_cmd_header *cur_cmd_header =
++              (struct topaz_cmd_header *) cmd;
++      uint32_t cmd_size = cur_cmd_header->size;
++      uint32_t read_index, write_index;
++      const uint32_t *cmd_pointer = (uint32_t *) cmd;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      int ret = 0;
++
++      /* <msvdx does> # enable all clock */
++
++      write_index = topaz_priv->topaz_cmd_windex;
++      if (write_index + cmd_size + 1 > topaz_priv->topaz_ccb_size) {
++              int free_space = topaz_priv->topaz_ccb_size - write_index;
++
++              PSB_DEBUG_GENERAL("TOPAZ: -------will wrap CCB write point.\n");
++              if (free_space > 0) {
++                      struct topaz_cmd_header pad_cmd;
++
++                      pad_cmd.id = MTX_CMDID_NULL;
++                      pad_cmd.size = free_space;
++                      pad_cmd.seq = 0x7fff & topaz_priv->topaz_cmd_seq;
++
++                      PSB_DEBUG_GENERAL("TOPAZ: MTX_CMDID_NULL:"
++                                      " size(%d),seq (0x%04x)\n",
++                                      pad_cmd.size, pad_cmd.seq);
++
++                      TOPAZ_BEGIN_CCB(dev_priv);
++                      TOPAZ_OUT_CCB(dev_priv, pad_cmd.val);
++                      TOPAZ_END_CCB(dev_priv, 1);
++
++                      POLL_WB_SEQ(dev_priv, pad_cmd.seq);
++                      ++topaz_priv->topaz_cmd_seq;
++              }
++              POLL_WB_RINDEX(dev_priv, 0);
++              if (ret == 0)
++                      topaz_priv->topaz_cmd_windex = 0;
++              else {
++                      DRM_ERROR("TOPAZ: poll rindex timeout\n");
++                      return ret; /* HW may hang, need reset */
++              }
++              PSB_DEBUG_GENERAL("TOPAZ: -------wrap CCB was done.\n");
++      }
++
++      read_index = CCB_CTRL_RINDEX(dev_priv);/* temperily use CCB CTRL */
++      write_index = topaz_priv->topaz_cmd_windex;
++
++      PSB_DEBUG_GENERAL("TOPAZ: write index(%d), read index(%d,WB=%d)\n",
++                      write_index, read_index, WB_CCB_CTRL_RINDEX(dev_priv));
++      TOPAZ_BEGIN_CCB(dev_priv);
++      while (cmd_size > 0) {
++              TOPAZ_OUT_CCB(dev_priv, *cmd_pointer++);
++              --cmd_size;
++      }
++      TOPAZ_END_CCB(dev_priv, 1);
++
++#if 0
++      DRM_UDELAY(1000);
++      lnc_topaz_clearirq(dev,
++                      lnc_topaz_queryirq(dev));
++      LNC_TRACEL("TOPAZ: after clear, query again\n");
++      lnc_topaz_queryirq(dev_priv);
++#endif
++
++      return ret;
++}
++
++int lnc_topaz_dequeue_send(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct lnc_topaz_cmd_queue *topaz_cmd = NULL;
++      int ret;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      PSB_DEBUG_GENERAL("TOPAZ: dequeue command and send it to topaz\n");
++
++      if (list_empty(&topaz_priv->topaz_queue)) {
++              topaz_priv->topaz_busy = 0;
++              return 0;
++      }
++
++      topaz_cmd = list_first_entry(&topaz_priv->topaz_queue,
++                              struct lnc_topaz_cmd_queue, head);
++
++      PSB_DEBUG_GENERAL("TOPAZ: queue has id %08x\n", topaz_cmd->sequence);
++      ret = lnc_topaz_send(dev, topaz_cmd->cmd, topaz_cmd->cmd_size,
++                      topaz_cmd->sequence);
++      if (ret) {
++              DRM_ERROR("TOPAZ: lnc_topaz_send failed.\n");
++              ret = -EINVAL;
++      }
++
++      list_del(&topaz_cmd->head);
++      kfree(topaz_cmd->cmd);
++      kfree(topaz_cmd
++               );
++
++      return ret;
++}
++
++void topaz_mtx_kick(struct drm_psb_private *dev_priv, uint32_t kick_count)
++{
++      PSB_DEBUG_GENERAL("TOPAZ: kick mtx count(%d).\n", kick_count);
++      MTX_WRITE32(MTX_CR_MTX_KICK, kick_count);
++}
++
++int lnc_check_topaz_idle(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++      uint32_t reg_val;
++
++      if (topaz_priv->topaz_busy)
++              return -EBUSY;
++
++      MVEA_READ32(MVEA_CR_MVEA_BUSY, &reg_val);
++      if (reg_val != 0)
++              return -EBUSY;
++
++      MVEA_READ32(MVEA_CR_MVEA_DMACMDFIFO_WAIT, &reg_val);
++      if (reg_val != 0)
++              return -EBUSY;
++
++      MVEA_READ32(MVEA_CR_MVEA_DMACMDFIFO_STATUS, &reg_val);
++      if ((reg_val & (1 << 8)) == 0)
++              return -EBUSY;
++
++      return 0; /* we think it is idle */
++}
++
++int lnc_wait_topaz_idle(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct ttm_fence_device *fdev = &dev_priv->fdev;
++      struct ttm_fence_class_manager *fc =
++              &fdev->fence_class[LNC_ENGINE_ENCODE];
++      struct ttm_fence_object *fence, *next;
++      unsigned long _end = jiffies + 5 * DRM_HZ;
++      int signaled = 0;
++      int ret = 0;
++
++      /* Ensure that all pending IRQs are serviced, */
++      /*
++       * Save the last MSVDX fence in dev_priv instead!!!
++       * Need to be fc->write_locked while accessing a fence from the ring.
++       */
++      list_for_each_entry_safe(fence, next, &fc->ring, ring) {
++              do {
++                      signaled = ttm_fence_object_signaled(fence,
++                                                           _PSB_FENCE_TYPE_EXE);
++                      if (signaled)
++                              break;
++                      if (time_after_eq(jiffies, _end)) {
++                              PSB_DEBUG_PM("TOPAZIDLE: fence 0x%x didn't get"
++                                           "signaled for 3 secs\n",
++                                           (unsigned int) fence);
++                              break;
++                      }
++                      DRM_UDELAY(1000);
++              } while (1);
++      }
++
++      do {
++              ret = lnc_check_topaz_idle(dev);
++              if (ret == 0)
++                      break;
++
++              if (time_after_eq(jiffies, _end)) {
++                      PSB_DEBUG_PM("TOPAZIDLE: wait HW idle time out\n");
++                      break;
++              }
++              DRM_UDELAY(1000);
++      } while (1);
++
++      return ret;
++}
++
++int lnc_video_frameskip(struct drm_device *dev, uint64_t user_pointer)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++      int ret;
++
++      ret = copy_to_user((void __user *) ((unsigned long)user_pointer),
++              &topaz_priv->frame_skip, sizeof(topaz_priv->frame_skip));
++
++      if (ret)
++              return -EFAULT;
++
++      return 0;
++}
++
++static void lnc_topaz_flush_cmd_queue(struct topaz_private *topaz_priv)
++{
++      struct lnc_topaz_cmd_queue *entry, *next;
++
++      /* remind to reset topaz */
++      topaz_priv->topaz_needs_reset = 1;
++
++      if (list_empty(&topaz_priv->topaz_queue)) {
++              topaz_priv->topaz_busy = 0;
++              return;
++      }
++
++      /* flush all command in queue */
++      list_for_each_entry_safe(entry, next,
++                               &topaz_priv->topaz_queue,
++                               head) {
++              list_del(&entry->head);
++              kfree(entry->cmd);
++              kfree(entry);
++      }
++
++      return;
++}
++
++void lnc_topaz_handle_timeout(struct ttm_fence_device *fdev)
++{
++      struct drm_psb_private *dev_priv =
++              container_of(fdev, struct drm_psb_private, fdev);
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      lnc_topaz_flush_cmd_queue(topaz_priv);
++}
++
++inline int psb_try_power_down_topaz(struct drm_device *dev)
++{
++      return powermgmt_suspend_islands(dev->pdev, PSB_VIDEO_ENC_ISLAND, false);
++}
+diff --git a/drivers/gpu/drm/psb/lnc_topaz.h b/drivers/gpu/drm/psb/lnc_topaz.h
+new file mode 100644
+index 0000000..c48cab0
+--- /dev/null
++++ b/drivers/gpu/drm/psb/lnc_topaz.h
+@@ -0,0 +1,902 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2007 Intel Corporation, Hillsboro, OR, USA
++ * Copyright (c) Imagination Technologies Limited, UK
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++#ifndef _LNC_TOPAZ_H_
++#define _LNC_TOPAZ_H_
++
++#include "psb_drv.h"
++
++#define LNC_TOPAZ_NO_IRQ 0
++#define TOPAZ_MTX_REG_SIZE (34 * 4 + 183 * 4)
++
++extern int drm_topaz_pmpolicy;
++
++/*
++ * MACROS to insert values into fields within a word. The basename of the
++ * field must have MASK_BASENAME and SHIFT_BASENAME constants.
++ */
++#define MM_WRITE32(base, offset, value)  \
++do {                                 \
++      *((unsigned long *)((unsigned char *)(dev_priv->topaz_reg)      \
++                              + base + offset)) = value;              \
++} while (0)
++
++#define MM_READ32(base, offset, pointer) \
++do {                                   \
++      *(pointer) = *((unsigned long *)((unsigned char *)(dev_priv->topaz_reg)\
++                                              + base + offset));      \
++} while (0)
++
++#define F_MASK(basename)  (MASK_##basename)
++#define F_SHIFT(basename) (SHIFT_##basename)
++
++#define F_ENCODE(val, basename)  \
++      (((val) << (F_SHIFT(basename))) & (F_MASK(basename)))
++
++/* MVEA macro */
++#define MVEA_START 0x03000
++
++#define MVEA_WRITE32(offset, value) MM_WRITE32(MVEA_START, offset, value)
++#define MVEA_READ32(offset, pointer) MM_READ32(MVEA_START, offset, pointer);
++
++#define F_MASK_MVEA(basename)  (MASK_MVEA_##basename) /*     MVEA    */
++#define F_SHIFT_MVEA(basename) (SHIFT_MVEA_##basename)        /*     MVEA    */
++#define F_ENCODE_MVEA(val, basename)  \
++      (((val)<<(F_SHIFT_MVEA(basename)))&(F_MASK_MVEA(basename)))
++
++/* VLC macro */
++#define TOPAZ_VLC_START 0x05000
++
++/* TOPAZ macro */
++#define TOPAZ_START 0x02000
++
++#define TOPAZ_WRITE32(offset, value) MM_WRITE32(TOPAZ_START, offset, value)
++#define TOPAZ_READ32(offset, pointer) MM_READ32(TOPAZ_START, offset, pointer)
++
++#define F_MASK_TOPAZ(basename)  (MASK_TOPAZ_##basename)
++#define F_SHIFT_TOPAZ(basename) (SHIFT_TOPAZ_##basename)
++#define F_ENCODE_TOPAZ(val, basename) \
++      (((val)<<(F_SHIFT_TOPAZ(basename)))&(F_MASK_TOPAZ(basename)))
++
++/* MTX macro */
++#define MTX_START 0x0
++
++#define MTX_WRITE32(offset, value) MM_WRITE32(MTX_START, offset, value)
++#define MTX_READ32(offset, pointer) MM_READ32(MTX_START, offset, pointer)
++
++/* DMAC macro */
++#define DMAC_START 0x0f000
++
++#define DMAC_WRITE32(offset, value) MM_WRITE32(DMAC_START, offset, value)
++#define DMAC_READ32(offset, pointer) MM_READ32(DMAC_START, offset, pointer)
++
++#define F_MASK_DMAC(basename)  (MASK_DMAC_##basename)
++#define F_SHIFT_DMAC(basename) (SHIFT_DMAC_##basename)
++#define F_ENCODE_DMAC(val, basename)  \
++      (((val)<<(F_SHIFT_DMAC(basename)))&(F_MASK_DMAC(basename)))
++
++
++/* Register CR_IMG_TOPAZ_INTENAB */
++#define TOPAZ_CR_IMG_TOPAZ_INTENAB  0x0008
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTEN_MVEA 0x00000001
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTEN_MVEA 0
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTEN_MVEA 0x0008
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_MAS_INTEN 0x80000000
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_MAS_INTEN 31
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_MAS_INTEN 0x0008
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTEN_MMU_FAULT 0x00000008
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTEN_MMU_FAULT 3
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTEN_MMU_FAULT 0x0008
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTEN_MTX 0x00000002
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTEN_MTX 1
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTEN_MTX 0x0008
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTEN_MTX_HALT 0x00000004
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTEN_MTX_HALT 2
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTEN_MTX_HALT 0x0008
++
++#define TOPAZ_CR_IMG_TOPAZ_INTCLEAR 0x000C
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTCLR_MVEA 0x00000001
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTCLR_MVEA 0
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTCLR_MVEA 0x000C
++
++#define TOPAZ_CR_IMG_TOPAZ_INTSTAT  0x0004
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTS_MVEA 0x00000001
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTS_MVEA 0
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTS_MVEA 0x0004
++
++#define MTX_CCBCTRL_ROFF              0
++#define MTX_CCBCTRL_COMPLETE          4
++#define MTX_CCBCTRL_CCBSIZE           8
++#define MTX_CCBCTRL_QP                        12
++#define MTX_CCBCTRL_FRAMESKIP         20
++#define MTX_CCBCTRL_INITQP            24
++
++#define TOPAZ_CR_MMU_STATUS         0x001C
++#define MASK_TOPAZ_CR_MMU_PF_N_RW   0x00000001
++#define SHIFT_TOPAZ_CR_MMU_PF_N_RW  0
++#define REGNUM_TOPAZ_CR_MMU_PF_N_RW 0x001C
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTCLR_MMU_FAULT 0x00000008
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTCLR_MMU_FAULT 3
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTCLR_MMU_FAULT 0x000C
++
++#define TOPAZ_CR_MMU_MEM_REQ        0x0020
++#define MASK_TOPAZ_CR_MEM_REQ_STAT_READS 0x000000FF
++#define SHIFT_TOPAZ_CR_MEM_REQ_STAT_READS 0
++#define REGNUM_TOPAZ_CR_MEM_REQ_STAT_READS 0x0020
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX 0x00000002
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX 1
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX 0x000C
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX_HALT 0x00000004
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX_HALT 2
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX_HALT 0x000C
++
++#define MTX_CR_MTX_KICK             0x0080
++#define MASK_MTX_MTX_KICK           0x0000FFFF
++#define SHIFT_MTX_MTX_KICK          0
++#define REGNUM_MTX_MTX_KICK         0x0080
++
++#define MTX_DATA_MEM_BASE             0x82880000
++
++#define MTX_CR_MTX_RAM_ACCESS_CONTROL 0x0108
++#define MASK_MTX_MTX_MCMR           0x00000001
++#define SHIFT_MTX_MTX_MCMR          0
++#define REGNUM_MTX_MTX_MCMR         0x0108
++
++#define MASK_MTX_MTX_MCMID          0x0FF00000
++#define SHIFT_MTX_MTX_MCMID         20
++#define REGNUM_MTX_MTX_MCMID        0x0108
++
++#define MASK_MTX_MTX_MCM_ADDR       0x000FFFFC
++#define SHIFT_MTX_MTX_MCM_ADDR      2
++#define REGNUM_MTX_MTX_MCM_ADDR     0x0108
++
++#define MTX_CR_MTX_RAM_ACCESS_STATUS 0x010C
++#define MASK_MTX_MTX_MTX_MCM_STAT   0x00000001
++#define SHIFT_MTX_MTX_MTX_MCM_STAT  0
++#define REGNUM_MTX_MTX_MTX_MCM_STAT 0x010C
++
++#define MASK_MTX_MTX_MCMAI          0x00000002
++#define SHIFT_MTX_MTX_MCMAI         1
++#define REGNUM_MTX_MTX_MCMAI        0x0108
++
++#define MTX_CR_MTX_RAM_ACCESS_DATA_TRANSFER 0x0104
++
++#define MVEA_CR_MVEA_BUSY           0x0018
++#define MVEA_CR_MVEA_DMACMDFIFO_WAIT 0x001C
++#define MVEA_CR_MVEA_DMACMDFIFO_STATUS 0x0020
++
++#define MVEA_CR_IMG_MVEA_SRST       0x0000
++#define MASK_MVEA_CR_IMG_MVEA_SPE_SOFT_RESET 0x00000001
++#define SHIFT_MVEA_CR_IMG_MVEA_SPE_SOFT_RESET 0
++#define REGNUM_MVEA_CR_IMG_MVEA_SPE_SOFT_RESET 0x0000
++
++#define MASK_MVEA_CR_IMG_MVEA_IPE_SOFT_RESET 0x00000002
++#define SHIFT_MVEA_CR_IMG_MVEA_IPE_SOFT_RESET 1
++#define REGNUM_MVEA_CR_IMG_MVEA_IPE_SOFT_RESET 0x0000
++
++#define MASK_MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET 0x00000004
++#define SHIFT_MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET 2
++#define REGNUM_MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET 0x0000
++
++#define MASK_MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET 0x00000008
++#define SHIFT_MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET 3
++#define REGNUM_MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET 0x0000
++
++#define MASK_MVEA_CR_IMG_MVEA_CMC_SOFT_RESET 0x00000010
++#define SHIFT_MVEA_CR_IMG_MVEA_CMC_SOFT_RESET 4
++#define REGNUM_MVEA_CR_IMG_MVEA_CMC_SOFT_RESET 0x0000
++
++#define MASK_MVEA_CR_IMG_MVEA_DCF_SOFT_RESET 0x00000020
++#define SHIFT_MVEA_CR_IMG_MVEA_DCF_SOFT_RESET 5
++#define REGNUM_MVEA_CR_IMG_MVEA_DCF_SOFT_RESET 0x0000
++
++#define TOPAZ_CR_IMG_TOPAZ_CORE_ID  0x03C0
++#define TOPAZ_CR_IMG_TOPAZ_CORE_REV 0x03D0
++
++#define TOPAZ_MTX_PC          (0x00000005)
++#define PC_START_ADDRESS      (0x80900000)
++
++#define TOPAZ_CR_TOPAZ_AUTO_CLK_GATE 0x0014
++#define MASK_TOPAZ_CR_TOPAZ_VLC_AUTO_CLK_GATE 0x00000001
++#define SHIFT_TOPAZ_CR_TOPAZ_VLC_AUTO_CLK_GATE 0
++#define REGNUM_TOPAZ_CR_TOPAZ_VLC_AUTO_CLK_GATE 0x0014
++
++#define MASK_TOPAZ_CR_TOPAZ_DB_AUTO_CLK_GATE 0x00000002
++#define SHIFT_TOPAZ_CR_TOPAZ_DB_AUTO_CLK_GATE 1
++#define REGNUM_TOPAZ_CR_TOPAZ_DB_AUTO_CLK_GATE 0x0014
++
++#define MASK_TOPAZ_CR_TOPAZ_MTX_MAN_CLK_GATE 0x00000002
++#define SHIFT_TOPAZ_CR_TOPAZ_MTX_MAN_CLK_GATE 1
++#define REGNUM_TOPAZ_CR_TOPAZ_MTX_MAN_CLK_GATE 0x0010
++
++#define       MTX_CORE_CR_MTX_REGISTER_READ_WRITE_DATA_OFFSET 0x000000F8
++#define       MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_OFFSET 0x000000FC
++#define       MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_RNW_MASK 0x00010000
++#define       MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK 0x80000000
++
++#define       TOPAZ_CORE_CR_MTX_DEBUG_OFFSET  0x0000003C
++
++#define MASK_TOPAZ_CR_MTX_DBG_IS_SLAVE 0x00000004
++#define SHIFT_TOPAZ_CR_MTX_DBG_IS_SLAVE 2
++#define REGNUM_TOPAZ_CR_MTX_DBG_IS_SLAVE 0x003C
++
++#define MASK_TOPAZ_CR_MTX_DBG_GPIO_OUT 0x00000018
++#define SHIFT_TOPAZ_CR_MTX_DBG_GPIO_OUT 3
++#define REGNUM_TOPAZ_CR_MTX_DBG_GPIO_OUT 0x003C
++
++#define       MTX_CORE_CR_MTX_RAM_ACCESS_CONTROL_OFFSET 0x00000108
++
++#define TOPAZ_CR_MMU_CONTROL0       0x0024
++#define MASK_TOPAZ_CR_MMU_BYPASS    0x00000800
++#define SHIFT_TOPAZ_CR_MMU_BYPASS   11
++#define REGNUM_TOPAZ_CR_MMU_BYPASS  0x0024
++
++#define TOPAZ_CR_MMU_DIR_LIST_BASE(X) (0x0030 + (4 * (X)))
++#define MASK_TOPAZ_CR_MMU_DIR_LIST_BASE_ADDR 0xFFFFF000
++#define SHIFT_TOPAZ_CR_MMU_DIR_LIST_BASE_ADDR 12
++#define REGNUM_TOPAZ_CR_MMU_DIR_LIST_BASE_ADDR 0x0030
++
++#define MASK_TOPAZ_CR_MMU_INVALDC   0x00000008
++#define SHIFT_TOPAZ_CR_MMU_INVALDC  3
++#define REGNUM_TOPAZ_CR_MMU_INVALDC 0x0024
++
++#define MASK_TOPAZ_CR_MMU_FLUSH     0x00000004
++#define SHIFT_TOPAZ_CR_MMU_FLUSH    2
++#define REGNUM_TOPAZ_CR_MMU_FLUSH   0x0024
++
++#define TOPAZ_CR_MMU_BANK_INDEX     0x0038
++#define MASK_TOPAZ_CR_MMU_BANK_N_INDEX_M(i) (0x00000003 << (8 + ((i) * 2)))
++#define SHIFT_TOPAZ_CR_MMU_BANK_N_INDEX_M(i) (8 + ((i) * 2))
++#define REGNUM_TOPAZ_CR_MMU_BANK_N_INDEX_M(i) 0x0038
++
++#define TOPAZ_CR_TOPAZ_MAN_CLK_GATE 0x0010
++#define MASK_TOPAZ_CR_TOPAZ_MVEA_MAN_CLK_GATE 0x00000001
++#define SHIFT_TOPAZ_CR_TOPAZ_MVEA_MAN_CLK_GATE 0
++#define REGNUM_TOPAZ_CR_TOPAZ_MVEA_MAN_CLK_GATE 0x0010
++
++#define MTX_CORE_CR_MTX_TXRPT_OFFSET 0x0000000c
++#define TXRPT_WAITONKICK_VALUE 0x8ade0000
++
++#define MTX_CORE_CR_MTX_ENABLE_MTX_TOFF_MASK 0x00000002
++
++#define MTX_CORE_CR_MTX_ENABLE_OFFSET 0x00000000
++#define       MTX_CORE_CR_MTX_ENABLE_MTX_ENABLE_MASK 0x00000001
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_INTS_MTX 0x00000002
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_INTS_MTX 1
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_INTS_MTX 0x0004
++
++#define       MTX_CORE_CR_MTX_SOFT_RESET_OFFSET 0x00000200
++#define       MTX_CORE_CR_MTX_SOFT_RESET_MTX_RESET_MASK 0x00000001
++
++#define MTX_CR_MTX_SYSC_CDMAA       0x0344
++#define MASK_MTX_CDMAA_ADDRESS      0x03FFFFFC
++#define SHIFT_MTX_CDMAA_ADDRESS     2
++#define REGNUM_MTX_CDMAA_ADDRESS    0x0344
++
++#define MTX_CR_MTX_SYSC_CDMAC       0x0340
++#define MASK_MTX_LENGTH             0x0000FFFF
++#define SHIFT_MTX_LENGTH            0
++#define REGNUM_MTX_LENGTH           0x0340
++
++#define MASK_MTX_BURSTSIZE          0x07000000
++#define SHIFT_MTX_BURSTSIZE         24
++#define REGNUM_MTX_BURSTSIZE        0x0340
++
++#define MASK_MTX_RNW                0x00020000
++#define SHIFT_MTX_RNW               17
++#define REGNUM_MTX_RNW              0x0340
++
++#define MASK_MTX_ENABLE             0x00010000
++#define SHIFT_MTX_ENABLE            16
++#define REGNUM_MTX_ENABLE           0x0340
++
++#define MASK_MTX_LENGTH             0x0000FFFF
++#define SHIFT_MTX_LENGTH            0
++#define REGNUM_MTX_LENGTH           0x0340
++
++#define TOPAZ_CR_IMG_TOPAZ_SRST     0x0000
++#define MASK_TOPAZ_CR_IMG_TOPAZ_MVEA_SOFT_RESET 0x00000001
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_MVEA_SOFT_RESET 0
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_MVEA_SOFT_RESET 0x0000
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_VLC_SOFT_RESET 0x00000008
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_VLC_SOFT_RESET 3
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_VLC_SOFT_RESET 0x0000
++
++#define MASK_TOPAZ_CR_IMG_TOPAZ_MTX_SOFT_RESET 0x00000002
++#define SHIFT_TOPAZ_CR_IMG_TOPAZ_MTX_SOFT_RESET 1
++#define REGNUM_TOPAZ_CR_IMG_TOPAZ_MTX_SOFT_RESET 0x0000
++
++#define MVEA_CR_MVEA_AUTO_CLOCK_GATING 0x0024
++#define MASK_MVEA_CR_MVEA_SPE_AUTO_CLK_GATE 0x00000001
++#define SHIFT_MVEA_CR_MVEA_SPE_AUTO_CLK_GATE 0
++#define REGNUM_MVEA_CR_MVEA_SPE_AUTO_CLK_GATE 0x0024
++
++#define MASK_MVEA_CR_MVEA_IPE_AUTO_CLK_GATE 0x00000002
++#define SHIFT_MVEA_CR_MVEA_IPE_AUTO_CLK_GATE 1
++#define REGNUM_MVEA_CR_MVEA_IPE_AUTO_CLK_GATE 0x0024
++
++#define MASK_MVEA_CR_MVEA_CMPRS_AUTO_CLK_GATE 0x00000004
++#define SHIFT_MVEA_CR_MVEA_CMPRS_AUTO_CLK_GATE 2
++#define REGNUM_MVEA_CR_MVEA_CMPRS_AUTO_CLK_GATE 0x0024
++
++#define MASK_MVEA_CR_MVEA_JMCOMP_AUTO_CLK_GATE 0x00000008
++#define SHIFT_MVEA_CR_MVEA_JMCOMP_AUTO_CLK_GATE 3
++#define REGNUM_MVEA_CR_MVEA_JMCOMP_AUTO_CLK_GATE 0x0024
++
++#define TOPAZ_CR_IMG_TOPAZ_DMAC_MODE 0x0040
++#define MASK_TOPAZ_CR_DMAC_MASTER_MODE 0x00000001
++#define SHIFT_TOPAZ_CR_DMAC_MASTER_MODE 0
++#define REGNUM_TOPAZ_CR_DMAC_MASTER_MODE 0x0040
++
++#define MTX_CR_MTX_SYSC_CDMAT       0x0350
++#define MASK_MTX_TRANSFERDATA       0xFFFFFFFF
++#define SHIFT_MTX_TRANSFERDATA      0
++#define REGNUM_MTX_TRANSFERDATA     0x0350
++
++#define IMG_SOC_DMAC_IRQ_STAT(X)    (0x000C + (32 * (X)))
++#define MASK_IMG_SOC_TRANSFER_FIN   0x00020000
++#define SHIFT_IMG_SOC_TRANSFER_FIN  17
++#define REGNUM_IMG_SOC_TRANSFER_FIN 0x000C
++
++#define IMG_SOC_DMAC_COUNT(X)       (0x0004 + (32 * (X)))
++#define MASK_IMG_SOC_CNT            0x0000FFFF
++#define SHIFT_IMG_SOC_CNT           0
++#define REGNUM_IMG_SOC_CNT          0x0004
++
++#define MASK_IMG_SOC_EN             0x00010000
++#define SHIFT_IMG_SOC_EN            16
++#define REGNUM_IMG_SOC_EN           0x0004
++
++#define MASK_IMG_SOC_LIST_EN        0x00040000
++#define SHIFT_IMG_SOC_LIST_EN       18
++#define REGNUM_IMG_SOC_LIST_EN      0x0004
++
++#define IMG_SOC_DMAC_PER_HOLD(X)    (0x0018 + (32 * (X)))
++#define MASK_IMG_SOC_PER_HOLD       0x0000007F
++#define SHIFT_IMG_SOC_PER_HOLD      0
++#define REGNUM_IMG_SOC_PER_HOLD     0x0018
++
++#define IMG_SOC_DMAC_SETUP(X)       (0x0000 + (32 * (X)))
++#define MASK_IMG_SOC_START_ADDRESS  0xFFFFFFF
++#define SHIFT_IMG_SOC_START_ADDRESS 0
++#define REGNUM_IMG_SOC_START_ADDRESS 0x0000
++
++#define MASK_IMG_SOC_BSWAP          0x40000000
++#define SHIFT_IMG_SOC_BSWAP         30
++#define REGNUM_IMG_SOC_BSWAP        0x0004
++
++#define MASK_IMG_SOC_PW             0x18000000
++#define SHIFT_IMG_SOC_PW            27
++#define REGNUM_IMG_SOC_PW           0x0004
++
++#define MASK_IMG_SOC_DIR            0x04000000
++#define SHIFT_IMG_SOC_DIR           26
++#define REGNUM_IMG_SOC_DIR          0x0004
++
++#define MASK_IMG_SOC_PI             0x03000000
++#define SHIFT_IMG_SOC_PI            24
++#define REGNUM_IMG_SOC_PI           0x0004
++#define IMG_SOC_PI_1          0x00000002
++#define IMG_SOC_PI_2          0x00000001
++#define IMG_SOC_PI_4          0x00000000
++
++#define MASK_IMG_SOC_TRANSFER_IEN   0x20000000
++#define SHIFT_IMG_SOC_TRANSFER_IEN  29
++#define REGNUM_IMG_SOC_TRANSFER_IEN 0x0004
++
++#define DMAC_VALUE_COUNT(BSWAP, PW, DIR, PERIPH_INCR, COUNT)        \
++      ((((BSWAP) << SHIFT_IMG_SOC_BSWAP) & MASK_IMG_SOC_BSWAP)|       \
++              (((PW) << SHIFT_IMG_SOC_PW) & MASK_IMG_SOC_PW)|         \
++              (((DIR) << SHIFT_IMG_SOC_DIR) & MASK_IMG_SOC_DIR)|      \
++              (((PERIPH_INCR) << SHIFT_IMG_SOC_PI) & MASK_IMG_SOC_PI)| \
++              (((COUNT) << SHIFT_IMG_SOC_CNT) & MASK_IMG_SOC_CNT))
++
++#define IMG_SOC_DMAC_PERIPH(X)      (0x0008 + (32 * (X)))
++#define MASK_IMG_SOC_EXT_SA         0x0000000F
++#define SHIFT_IMG_SOC_EXT_SA        0
++#define REGNUM_IMG_SOC_EXT_SA       0x0008
++
++#define MASK_IMG_SOC_ACC_DEL        0xE0000000
++#define SHIFT_IMG_SOC_ACC_DEL       29
++#define REGNUM_IMG_SOC_ACC_DEL      0x0008
++
++#define MASK_IMG_SOC_INCR           0x08000000
++#define SHIFT_IMG_SOC_INCR          27
++#define REGNUM_IMG_SOC_INCR         0x0008
++
++#define MASK_IMG_SOC_BURST          0x07000000
++#define SHIFT_IMG_SOC_BURST         24
++#define REGNUM_IMG_SOC_BURST        0x0008
++
++#define DMAC_VALUE_PERIPH_PARAM(ACC_DEL, INCR, BURST)             \
++((((ACC_DEL) << SHIFT_IMG_SOC_ACC_DEL) & MASK_IMG_SOC_ACC_DEL)|       \
++(((INCR) << SHIFT_IMG_SOC_INCR) & MASK_IMG_SOC_INCR)|             \
++(((BURST) << SHIFT_IMG_SOC_BURST) & MASK_IMG_SOC_BURST))
++
++#define IMG_SOC_DMAC_PERIPHERAL_ADDR(X) (0x0014 + (32 * (X)))
++#define MASK_IMG_SOC_ADDR           0x007FFFFF
++#define SHIFT_IMG_SOC_ADDR          0
++#define REGNUM_IMG_SOC_ADDR         0x0014
++
++/* **************** DMAC define **************** */
++enum  DMAC_eBSwap {
++      DMAC_BSWAP_NO_SWAP = 0x0,/* !< No byte swapping will be performed. */
++      DMAC_BSWAP_REVERSE = 0x1,/* !< Byte order will be reversed. */
++};
++
++enum DMAC_ePW {
++      DMAC_PWIDTH_32_BIT = 0x0,/* !< Peripheral width 32-bit. */
++      DMAC_PWIDTH_16_BIT = 0x1,/* !< Peripheral width 16-bit. */
++      DMAC_PWIDTH_8_BIT = 0x2,/* !< Peripheral width 8-bit. */
++};
++
++enum DMAC_eAccDel {
++      DMAC_ACC_DEL_0 = 0x0,   /* !< Access delay zero clock cycles */
++      DMAC_ACC_DEL_256 = 0x1, /* !< Access delay 256 clock cycles */
++      DMAC_ACC_DEL_512 = 0x2, /* !< Access delay 512 clock cycles */
++      DMAC_ACC_DEL_768 = 0x3, /* !< Access delay 768 clock cycles */
++      DMAC_ACC_DEL_1024 = 0x4,/* !< Access delay 1024 clock cycles */
++      DMAC_ACC_DEL_1280 = 0x5,/* !< Access delay 1280 clock cycles */
++      DMAC_ACC_DEL_1536 = 0x6,/* !< Access delay 1536 clock cycles */
++      DMAC_ACC_DEL_1792 = 0x7,/* !< Access delay 1792 clock cycles */
++};
++
++enum  DMAC_eBurst {
++      DMAC_BURST_0 = 0x0,     /* !< burst size of 0 */
++      DMAC_BURST_1 = 0x1,     /* !< burst size of 1 */
++      DMAC_BURST_2 = 0x2,     /* !< burst size of 2 */
++      DMAC_BURST_3 = 0x3,     /* !< burst size of 3 */
++      DMAC_BURST_4 = 0x4,     /* !< burst size of 4 */
++      DMAC_BURST_5 = 0x5,     /* !< burst size of 5 */
++      DMAC_BURST_6 = 0x6,     /* !< burst size of 6 */
++      DMAC_BURST_7 = 0x7,     /* !< burst size of 7 */
++};
++
++/* commands for topaz,shared with user space driver */
++enum drm_lnc_topaz_cmd {
++      MTX_CMDID_NULL = 0,
++      MTX_CMDID_DO_HEADER = 1,
++      MTX_CMDID_ENCODE_SLICE = 2,
++      MTX_CMDID_WRITEREG = 3,
++      MTX_CMDID_START_PIC = 4,
++      MTX_CMDID_END_PIC = 5,
++      MTX_CMDID_SYNC = 6,
++      MTX_CMDID_ENCODE_ONE_ROW = 7,
++      MTX_CMDID_FLUSH = 8,
++      MTX_CMDID_SW_LEAVE_LOWPOWER = 0x7c,
++      MTX_CMDID_SW_ENTER_LOWPOWER = 0x7e,
++      MTX_CMDID_SW_NEW_CODEC = 0x7f
++};
++
++/* codecs topaz supports,shared with user space driver */
++enum drm_lnc_topaz_codec {
++      IMG_CODEC_JPEG = 0,
++      IMG_CODEC_H264_NO_RC,
++      IMG_CODEC_H264_VBR,
++      IMG_CODEC_H264_CBR,
++      IMG_CODEC_H263_NO_RC,
++      IMG_CODEC_H263_VBR,
++      IMG_CODEC_H263_CBR,
++      IMG_CODEC_MPEG4_NO_RC,
++      IMG_CODEC_MPEG4_VBR,
++      IMG_CODEC_MPEG4_CBR,
++      IMG_CODEC_NUM
++};
++
++/* XXX: it's a copy of msvdx cmd queue. should have some change? */
++struct lnc_topaz_cmd_queue {
++      struct list_head head;
++      void *cmd;
++      unsigned long cmd_size;
++      uint32_t sequence;
++};
++
++
++struct topaz_cmd_header {
++      union {
++              struct {
++                      unsigned long enable_interrupt:1;
++                      unsigned long id:7;
++                      unsigned long size:8;
++                      unsigned long seq:16;
++              };
++              uint32_t val;
++      };
++};
++
++/* define structure */
++/* firmware file's info head */
++struct topaz_fwinfo {
++      unsigned int ver:16;
++      unsigned int codec:16;
++
++      unsigned int text_size;
++      unsigned int data_size;
++      unsigned int data_location;
++};
++
++/* firmware data array define  */
++struct topaz_codec_fw {
++      uint32_t ver;
++      uint32_t codec;
++
++      uint32_t text_size;
++      uint32_t data_size;
++      uint32_t data_location;
++
++      struct ttm_buffer_object *text;
++      struct ttm_buffer_object *data;
++};
++
++struct topaz_private {
++      /* current video task */
++      unsigned int pmstate;
++      struct sysfs_dirent *sysfs_pmstate;
++      int frame_skip;
++
++      void *topaz_mtx_reg_state;
++      struct ttm_buffer_object *topaz_mtx_data_mem;
++      uint32_t topaz_cur_codec;
++      uint32_t cur_mtx_data_size;
++      int topaz_needs_reset;
++
++      /*
++       *topaz command queue
++       */
++      spinlock_t topaz_lock;
++      struct mutex topaz_mutex;
++      struct list_head topaz_queue;
++      int topaz_busy;         /* 0 means topaz is free */
++      int topaz_fw_loaded;
++
++      /* topaz ccb data */
++      /* XXX: should the addr stored by 32 bits? more compatible way?? */
++      uint32_t topaz_ccb_buffer_addr;
++      uint32_t topaz_ccb_ctrl_addr;
++      uint32_t topaz_ccb_size;
++      uint32_t topaz_cmd_windex;
++      uint16_t topaz_cmd_seq;
++
++      uint32_t stored_initial_qp;
++      uint32_t topaz_dash_access_ctrl;
++
++      struct ttm_buffer_object *topaz_bo; /* 4K->2K/2K for writeback/sync */
++      struct ttm_bo_kmap_obj topaz_bo_kmap;
++      void *topaz_ccb_wb;
++      uint32_t topaz_wb_offset;
++      uint32_t *topaz_sync_addr;
++      uint32_t topaz_sync_offset;
++      uint32_t topaz_sync_cmd_seq;
++      uint32_t topaz_mtx_saved;
++
++      /* firmware */
++      struct topaz_codec_fw topaz_fw[IMG_CODEC_NUM];
++};
++
++/* external function declare */
++/* lnc_topazinit.c */
++int lnc_topaz_init(struct drm_device *dev);
++int lnc_topaz_uninit(struct drm_device *dev);
++int lnc_topaz_reset(struct drm_psb_private *dev_priv);
++int topaz_init_fw(struct drm_device *dev);
++int topaz_setup_fw(struct drm_device *dev, enum drm_lnc_topaz_codec codec);
++int topaz_wait_for_register(struct drm_psb_private *dev_priv,
++                          uint32_t addr, uint32_t value,
++                          uint32_t enable);
++void topaz_write_mtx_mem(struct drm_psb_private *dev_priv,
++                       uint32_t byte_addr, uint32_t val);
++uint32_t topaz_read_mtx_mem(struct drm_psb_private *dev_priv,
++                          uint32_t byte_addr);
++void topaz_write_mtx_mem_multiple_setup(struct drm_psb_private *dev_priv,
++                                      uint32_t addr);
++void topaz_write_mtx_mem_multiple(struct drm_psb_private *dev_priv,
++                                uint32_t val);
++void topaz_mmu_flushcache(struct drm_psb_private *dev_priv);
++int lnc_topaz_save_mtx_state(struct drm_device *dev);
++int lnc_topaz_restore_mtx_state(struct drm_device *dev);
++
++/* lnc_topaz.c */
++void lnc_topaz_interrupt(struct drm_device *dev, uint32_t topaz_stat);
++
++int lnc_cmdbuf_video(struct drm_file *priv,
++              struct list_head *validate_list,
++              uint32_t fence_type,
++              struct drm_psb_cmdbuf_arg *arg,
++              struct ttm_buffer_object *cmd_buffer,
++              struct psb_ttm_fence_rep *fence_arg);
++
++void topaz_mtx_kick(struct drm_psb_private *dev_priv, uint32_t kick_cout);
++void lnc_topaz_handle_timeout(struct ttm_fence_device *fdev);
++
++uint32_t psb_get_default_pd_addr(struct psb_mmu_driver *driver);
++int lnc_wait_topaz_idle(struct drm_device *dev);
++int lnc_check_topaz_idle(struct drm_device *dev);
++
++/* macros to get/set CCB control data */
++#define WB_CCB_CTRL_RINDEX(dev_priv) \
++(*((uint32_t *)((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_wb))
++
++#define WB_CCB_CTRL_SEQ(dev_priv) \
++(*((uint32_t *)((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_wb\
++      + 1))
++
++#define POLL_WB_RINDEX(dev_priv, value)                               \
++do {                                                          \
++      int i;                                                  \
++      for (i = 0; i < 10000; i++) {                           \
++              if (WB_CCB_CTRL_RINDEX(dev_priv) == value)      \
++                      break;                                  \
++              else                                            \
++                      DRM_UDELAY(100);                        \
++      }                                                       \
++      if (WB_CCB_CTRL_RINDEX(dev_priv) != value) {            \
++              DRM_ERROR("TOPAZ: poll rindex timeout\n");      \
++              ret = -EBUSY;                                   \
++      }                                                       \
++} while (0)
++
++#define POLL_WB_SEQ(dev_priv, value)                          \
++do {                                                          \
++      int i;                                                  \
++      for (i = 0; i < 10000; i++) {                           \
++              if (CCB_CTRL_SEQ(dev_priv) == value)    \
++                      break;                                  \
++              else                                            \
++                      DRM_UDELAY(1000);                       \
++      }                                                       \
++      if (CCB_CTRL_SEQ(dev_priv) != value) {          \
++              DRM_ERROR("TOPAZ:poll mtxseq timeout,0x%08x(mtx) vs 0x%08x\n",\
++                      WB_CCB_CTRL_SEQ(dev_priv), value);              \
++              ret = -EBUSY;                                   \
++      }                                                       \
++} while (0)
++
++#define CCB_CTRL_RINDEX(dev_priv)                     \
++      topaz_read_mtx_mem(dev_priv,                    \
++      ((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_ctrl_addr \
++                      + MTX_CCBCTRL_ROFF)
++
++#define CCB_CTRL_RINDEX(dev_priv)                     \
++      topaz_read_mtx_mem(dev_priv,                    \
++      ((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_ctrl_addr \
++                      + MTX_CCBCTRL_ROFF)
++
++#define CCB_CTRL_QP(dev_priv)                                         \
++      topaz_read_mtx_mem(dev_priv,                                    \
++      ((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_ctrl_addr \
++                      + MTX_CCBCTRL_QP)
++
++#define CCB_CTRL_SEQ(dev_priv)                                                \
++      topaz_read_mtx_mem(dev_priv,                                    \
++      ((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_ctrl_addr \
++                      + MTX_CCBCTRL_COMPLETE)
++
++#define CCB_CTRL_FRAMESKIP(dev_priv)                             \
++      topaz_read_mtx_mem(dev_priv,                               \
++      ((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_ctrl_addr \
++                      + MTX_CCBCTRL_FRAMESKIP)
++
++#define CCB_CTRL_SET_QP(dev_priv, qp)                                 \
++      topaz_write_mtx_mem(dev_priv,                                   \
++      ((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_ctrl_addr \
++                      + MTX_CCBCTRL_QP, qp)
++
++#define CCB_CTRL_SET_INITIALQP(dev_priv, qp)                      \
++      topaz_write_mtx_mem(dev_priv,                               \
++      ((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_ctrl_addr \
++                      + MTX_CCBCTRL_INITQP, qp)
++
++
++#define TOPAZ_BEGIN_CCB(dev_priv)                                     \
++      topaz_write_mtx_mem_multiple_setup(dev_priv,                    \
++   ((struct topaz_private *)dev_priv->topaz_private)->topaz_ccb_buffer_addr + \
++   ((struct topaz_private *)dev_priv->topaz_private)->topaz_cmd_windex * 4)
++
++#define TOPAZ_OUT_CCB(dev_priv, cmd)                                  \
++do {                                                                  \
++      topaz_write_mtx_mem_multiple(dev_priv, cmd);                    \
++      ((struct topaz_private *)dev_priv->topaz_private)->topaz_cmd_windex++; \
++} while (0)
++
++#define TOPAZ_END_CCB(dev_priv, kick_count)   \
++      topaz_mtx_kick(dev_priv, 1);
++
++static inline char *cmd_to_string(int cmd_id)
++{
++      switch (cmd_id) {
++      case MTX_CMDID_START_PIC:
++              return "MTX_CMDID_START_PIC";
++      case MTX_CMDID_END_PIC:
++              return "MTX_CMDID_END_PIC";
++      case MTX_CMDID_DO_HEADER:
++              return "MTX_CMDID_DO_HEADER";
++      case MTX_CMDID_ENCODE_SLICE:
++              return "MTX_CMDID_ENCODE_SLICE";
++      case MTX_CMDID_SYNC:
++              return "MTX_CMDID_SYNC";
++
++      default:
++              return "Undefined command";
++
++      }
++}
++
++static inline char *codec_to_string(int codec)
++{
++      switch (codec) {
++      case IMG_CODEC_H264_NO_RC:
++              return "H264_NO_RC";
++      case IMG_CODEC_H264_VBR:
++              return "H264_VBR";
++      case IMG_CODEC_H264_CBR:
++              return "H264_CBR";
++      case IMG_CODEC_H263_NO_RC:
++              return "H263_NO_RC";
++      case IMG_CODEC_H263_VBR:
++              return "H263_VBR";
++      case IMG_CODEC_H263_CBR:
++              return "H263_CBR";
++      case IMG_CODEC_MPEG4_NO_RC:
++              return "MPEG4_NO_RC";
++      case IMG_CODEC_MPEG4_VBR:
++              return "MPEG4_VBR";
++      case IMG_CODEC_MPEG4_CBR:
++              return "MPEG4_CBR";
++      default:
++              return "Undefined codec";
++      }
++}
++
++
++static inline void lnc_topaz_enableirq(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      /* uint32_t ier = dev_priv->vdc_irq_mask | _LNC_IRQ_TOPAZ_FLAG; */
++
++      PSB_DEBUG_IRQ("TOPAZ: enable IRQ\n");
++
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_INTENAB,
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_MAS_INTEN) |
++              /* F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTEN_MVEA) | */
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTEN_MMU_FAULT) |
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTEN_MTX) |
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTEN_MTX_HALT));
++
++      /* write in psb_irq.c */
++      /* PSB_WVDC32(ier, PSB_INT_ENABLE_R); /\* essential *\/ */
++}
++
++static inline void lnc_topaz_disableirq(struct drm_device *dev)
++{
++
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      /* uint32_t ier = dev_priv->vdc_irq_mask & (~_LNC_IRQ_TOPAZ_FLAG); */
++
++      PSB_DEBUG_INIT("TOPAZ: disable IRQ\n");
++
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_INTENAB, 0);
++
++      /* write in psb_irq.c */
++      /* PSB_WVDC32(ier, PSB_INT_ENABLE_R); /\* essential *\/ */
++}
++
++
++static inline void lnc_topaz_clearirq(struct drm_device *dev,
++                              uint32_t clear_topaz)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      PSB_DEBUG_INIT("TOPAZ: clear IRQ\n");
++      if (clear_topaz != 0)
++              TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_INTCLEAR, clear_topaz);
++
++      /* PSB_WVDC32(_LNC_IRQ_TOPAZ_FLAG, PSB_INT_IDENTITY_R); */
++}
++
++static inline uint32_t lnc_topaz_queryirq(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      uint32_t val, /* iir, */ clear = 0;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      TOPAZ_READ32(TOPAZ_CR_IMG_TOPAZ_INTSTAT, &val);
++      /* iir = PSB_RVDC32(PSB_INT_IDENTITY_R); */
++
++      (void) topaz_priv;
++
++      if ((val == 0) /* && (iir == 0) */) {/* no interrupt */
++              PSB_DEBUG_GENERAL("TOPAZ: no interrupt,IIR=TOPAZ_INTSTAT=0\n");
++              return 0;
++      }
++
++      PSB_DEBUG_IRQ("TOPAZ:TOPAZ_INTSTAT=0x%08x\n", val);
++
++      if (val & (1<<31))
++              PSB_DEBUG_IRQ("TOPAZ:IRQ pin activated,cmd seq=0x%04x,"
++                      "sync seq: 0x%08x vs 0x%08x (MTX)\n",
++                      CCB_CTRL_SEQ(dev_priv),
++                      dev_priv->sequence[LNC_ENGINE_ENCODE],
++                      *(uint32_t *)topaz_priv->topaz_sync_addr);
++      else
++              PSB_DEBUG_IRQ("TOPAZ:IRQ pin not activated,cmd seq=0x%04x,"
++                      "sync seq: 0x%08x vs 0x%08x (MTX)\n",
++                      CCB_CTRL_SEQ(dev_priv),
++                      dev_priv->sequence[LNC_ENGINE_ENCODE],
++                      *(uint32_t *)topaz_priv->topaz_sync_addr);
++
++      if (val & 0x8) {
++              uint32_t mmu_status, mmu_req;
++
++              TOPAZ_READ32(TOPAZ_CR_MMU_STATUS, &mmu_status);
++              TOPAZ_READ32(TOPAZ_CR_MMU_MEM_REQ, &mmu_req);
++
++              PSB_DEBUG_IRQ("TOPAZ: detect a page fault interrupt, "
++                      "address=0x%08x,mem req=0x%08x\n",
++                      mmu_status, mmu_req);
++              clear |= F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTCLR_MMU_FAULT);
++      }
++
++      if (val & 0x4) {
++              PSB_DEBUG_IRQ("TOPAZ: detect a MTX_HALT interrupt\n");
++              clear |= F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX_HALT);
++      }
++
++      if (val & 0x2) {
++              PSB_DEBUG_IRQ("TOPAZ: detect a MTX interrupt\n");
++              clear |= F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX);
++      }
++
++      if (val & 0x1) {
++              PSB_DEBUG_IRQ("TOPAZ: detect a MVEA interrupt\n");
++              clear |= F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTCLR_MVEA);
++      }
++
++      return clear;
++}
++
++
++#define TOPAZ_NEW_PMSTATE(drm_dev, topaz_priv, new_state)             \
++do { \
++      topaz_priv->pmstate = new_state;                                \
++      sysfs_notify_dirent(topaz_priv->sysfs_pmstate);                 \
++      PSB_DEBUG_PM("TOPAZ: %s\n",                                     \
++              (new_state == PSB_PMSTATE_POWERUP) ? "powerup"          \
++              : ((new_state == PSB_PMSTATE_POWERDOWN) ? "powerdown"   \
++                      : "clockgated"));                               \
++} while (0)
++
++#endif        /* _LNC_TOPAZ_H_ */
+diff --git a/drivers/gpu/drm/psb/lnc_topazinit.c b/drivers/gpu/drm/psb/lnc_topazinit.c
+new file mode 100644
+index 0000000..2e8365c
+--- /dev/null
++++ b/drivers/gpu/drm/psb/lnc_topazinit.c
+@@ -0,0 +1,2058 @@
++/**
++ * file lnc_topazinit.c
++ * TOPAZ initialization and mtx-firmware upload
++ *
++ */
++
++/**************************************************************************
++ *
++ * Copyright (c) 2007 Intel Corporation, Hillsboro, OR, USA
++ * Copyright (c) Imagination Technologies Limited, UK
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++/* NOTE: (READ BEFORE REFINE CODE)
++ * 1. The FIRMWARE's SIZE is measured by byte, we have to pass the size
++ * measured by word to DMAC.
++ *
++ *
++ *
++ */
++
++/* include headers */
++
++/* #define DRM_DEBUG_CODE 2 */
++
++#include <linux/firmware.h>
++
++#include <drm/drmP.h>
++#include <drm/drm.h>
++
++#include "psb_drv.h"
++#include "lnc_topaz.h"
++#include "psb_powermgmt.h"
++
++/* WARNING: this define is very important */
++#define RAM_SIZE (1024 * 24)
++
++/* register default values
++ * THIS HEADER IS ONLY INCLUDE ONCE*/
++static unsigned long topaz_default_regs[183][3] = {
++      {MVEA_START, 0x00000000, 0x00000000},
++      {MVEA_START, 0x00000004, 0x00000400},
++      {MVEA_START, 0x00000008, 0x00000000},
++      {MVEA_START, 0x0000000C, 0x00000000},
++      {MVEA_START, 0x00000010, 0x00000000},
++      {MVEA_START, 0x00000014, 0x00000000},
++      {MVEA_START, 0x00000018, 0x00000000},
++      {MVEA_START, 0x0000001C, 0x00000000},
++      {MVEA_START, 0x00000020, 0x00000120},
++      {MVEA_START, 0x00000024, 0x00000000},
++      {MVEA_START, 0x00000028, 0x00000000},
++      {MVEA_START, 0x00000100, 0x00000000},
++      {MVEA_START, 0x00000104, 0x00000000},
++      {MVEA_START, 0x00000108, 0x00000000},
++      {MVEA_START, 0x0000010C, 0x00000000},
++      {MVEA_START, 0x0000011C, 0x00000001},
++      {MVEA_START, 0x0000012C, 0x00000000},
++      {MVEA_START, 0x00000180, 0x00000000},
++      {MVEA_START, 0x00000184, 0x00000000},
++      {MVEA_START, 0x00000188, 0x00000000},
++      {MVEA_START, 0x0000018C, 0x00000000},
++      {MVEA_START, 0x00000190, 0x00000000},
++      {MVEA_START, 0x00000194, 0x00000000},
++      {MVEA_START, 0x00000198, 0x00000000},
++      {MVEA_START, 0x0000019C, 0x00000000},
++      {MVEA_START, 0x000001A0, 0x00000000},
++      {MVEA_START, 0x000001A4, 0x00000000},
++      {MVEA_START, 0x000001A8, 0x00000000},
++      {MVEA_START, 0x000001AC, 0x00000000},
++      {MVEA_START, 0x000001B0, 0x00000000},
++      {MVEA_START, 0x000001B4, 0x00000000},
++      {MVEA_START, 0x000001B8, 0x00000000},
++      {MVEA_START, 0x000001BC, 0x00000000},
++      {MVEA_START, 0x000001F8, 0x00000000},
++      {MVEA_START, 0x000001FC, 0x00000000},
++      {MVEA_START, 0x00000200, 0x00000000},
++      {MVEA_START, 0x00000204, 0x00000000},
++      {MVEA_START, 0x00000208, 0x00000000},
++      {MVEA_START, 0x0000020C, 0x00000000},
++      {MVEA_START, 0x00000210, 0x00000000},
++      {MVEA_START, 0x00000220, 0x00000001},
++      {MVEA_START, 0x00000224, 0x0000001F},
++      {MVEA_START, 0x00000228, 0x00000100},
++      {MVEA_START, 0x0000022C, 0x00001F00},
++      {MVEA_START, 0x00000230, 0x00000101},
++      {MVEA_START, 0x00000234, 0x00001F1F},
++      {MVEA_START, 0x00000238, 0x00001F01},
++      {MVEA_START, 0x0000023C, 0x0000011F},
++      {MVEA_START, 0x00000240, 0x00000200},
++      {MVEA_START, 0x00000244, 0x00001E00},
++      {MVEA_START, 0x00000248, 0x00000002},
++      {MVEA_START, 0x0000024C, 0x0000001E},
++      {MVEA_START, 0x00000250, 0x00000003},
++      {MVEA_START, 0x00000254, 0x0000001D},
++      {MVEA_START, 0x00000258, 0x00001F02},
++      {MVEA_START, 0x0000025C, 0x00000102},
++      {MVEA_START, 0x00000260, 0x0000011E},
++      {MVEA_START, 0x00000264, 0x00000000},
++      {MVEA_START, 0x00000268, 0x00000000},
++      {MVEA_START, 0x0000026C, 0x00000000},
++      {MVEA_START, 0x00000270, 0x00000000},
++      {MVEA_START, 0x00000274, 0x00000000},
++      {MVEA_START, 0x00000278, 0x00000000},
++      {MVEA_START, 0x00000280, 0x00008000},
++      {MVEA_START, 0x00000284, 0x00000000},
++      {MVEA_START, 0x00000288, 0x00000000},
++      {MVEA_START, 0x0000028C, 0x00000000},
++      {MVEA_START, 0x00000314, 0x00000000},
++      {MVEA_START, 0x00000318, 0x00000000},
++      {MVEA_START, 0x0000031C, 0x00000000},
++      {MVEA_START, 0x00000320, 0x00000000},
++      {MVEA_START, 0x00000324, 0x00000000},
++      {MVEA_START, 0x00000348, 0x00000000},
++      {MVEA_START, 0x00000380, 0x00000000},
++      {MVEA_START, 0x00000384, 0x00000000},
++      {MVEA_START, 0x00000388, 0x00000000},
++      {MVEA_START, 0x0000038C, 0x00000000},
++      {MVEA_START, 0x00000390, 0x00000000},
++      {MVEA_START, 0x00000394, 0x00000000},
++      {MVEA_START, 0x00000398, 0x00000000},
++      {MVEA_START, 0x0000039C, 0x00000000},
++      {MVEA_START, 0x000003A0, 0x00000000},
++      {MVEA_START, 0x000003A4, 0x00000000},
++      {MVEA_START, 0x000003A8, 0x00000000},
++      {MVEA_START, 0x000003B0, 0x00000000},
++      {MVEA_START, 0x000003B4, 0x00000000},
++      {MVEA_START, 0x000003B8, 0x00000000},
++      {MVEA_START, 0x000003BC, 0x00000000},
++      {MVEA_START, 0x000003D4, 0x00000000},
++      {MVEA_START, 0x000003D8, 0x00000000},
++      {MVEA_START, 0x000003DC, 0x00000000},
++      {MVEA_START, 0x000003E0, 0x00000000},
++      {MVEA_START, 0x000003E4, 0x00000000},
++      {MVEA_START, 0x000003EC, 0x00000000},
++      {MVEA_START, 0x000002D0, 0x00000000},
++      {MVEA_START, 0x000002D4, 0x00000000},
++      {MVEA_START, 0x000002D8, 0x00000000},
++      {MVEA_START, 0x000002DC, 0x00000000},
++      {MVEA_START, 0x000002E0, 0x00000000},
++      {MVEA_START, 0x000002E4, 0x00000000},
++      {MVEA_START, 0x000002E8, 0x00000000},
++      {MVEA_START, 0x000002EC, 0x00000000},
++      {MVEA_START, 0x000002F0, 0x00000000},
++      {MVEA_START, 0x000002F4, 0x00000000},
++      {MVEA_START, 0x000002F8, 0x00000000},
++      {MVEA_START, 0x000002FC, 0x00000000},
++      {MVEA_START, 0x00000300, 0x00000000},
++      {MVEA_START, 0x00000304, 0x00000000},
++      {MVEA_START, 0x00000308, 0x00000000},
++      {MVEA_START, 0x0000030C, 0x00000000},
++      {MVEA_START, 0x00000290, 0x00000000},
++      {MVEA_START, 0x00000294, 0x00000000},
++      {MVEA_START, 0x00000298, 0x00000000},
++      {MVEA_START, 0x0000029C, 0x00000000},
++      {MVEA_START, 0x000002A0, 0x00000000},
++      {MVEA_START, 0x000002A4, 0x00000000},
++      {MVEA_START, 0x000002A8, 0x00000000},
++      {MVEA_START, 0x000002AC, 0x00000000},
++      {MVEA_START, 0x000002B0, 0x00000000},
++      {MVEA_START, 0x000002B4, 0x00000000},
++      {MVEA_START, 0x000002B8, 0x00000000},
++      {MVEA_START, 0x000002BC, 0x00000000},
++      {MVEA_START, 0x000002C0, 0x00000000},
++      {MVEA_START, 0x000002C4, 0x00000000},
++      {MVEA_START, 0x000002C8, 0x00000000},
++      {MVEA_START, 0x000002CC, 0x00000000},
++      {MVEA_START, 0x00000080, 0x00000000},
++      {MVEA_START, 0x00000084, 0x80705700},
++      {MVEA_START, 0x00000088, 0x00000000},
++      {MVEA_START, 0x0000008C, 0x00000000},
++      {MVEA_START, 0x00000090, 0x00000000},
++      {MVEA_START, 0x00000094, 0x00000000},
++      {MVEA_START, 0x00000098, 0x00000000},
++      {MVEA_START, 0x0000009C, 0x00000000},
++      {MVEA_START, 0x000000A0, 0x00000000},
++      {MVEA_START, 0x000000A4, 0x00000000},
++      {MVEA_START, 0x000000A8, 0x00000000},
++      {MVEA_START, 0x000000AC, 0x00000000},
++      {MVEA_START, 0x000000B0, 0x00000000},
++      {MVEA_START, 0x000000B4, 0x00000000},
++      {MVEA_START, 0x000000B8, 0x00000000},
++      {MVEA_START, 0x000000BC, 0x00000000},
++      {MVEA_START, 0x000000C0, 0x00000000},
++      {MVEA_START, 0x000000C4, 0x00000000},
++      {MVEA_START, 0x000000C8, 0x00000000},
++      {MVEA_START, 0x000000CC, 0x00000000},
++      {MVEA_START, 0x000000D0, 0x00000000},
++      {MVEA_START, 0x000000D4, 0x00000000},
++      {MVEA_START, 0x000000D8, 0x00000000},
++      {MVEA_START, 0x000000DC, 0x00000000},
++      {MVEA_START, 0x000000E0, 0x00000000},
++      {MVEA_START, 0x000000E4, 0x00000000},
++      {MVEA_START, 0x000000E8, 0x00000000},
++      {MVEA_START, 0x000000EC, 0x00000000},
++      {MVEA_START, 0x000000F0, 0x00000000},
++      {MVEA_START, 0x000000F4, 0x00000000},
++      {MVEA_START, 0x000000F8, 0x00000000},
++      {MVEA_START, 0x000000FC, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000000, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000004, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000008, 0x00000000},
++      {TOPAZ_VLC_START, 0x0000000C, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000010, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000014, 0x00000000},
++      {TOPAZ_VLC_START, 0x0000001C, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000020, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000024, 0x00000000},
++      {TOPAZ_VLC_START, 0x0000002C, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000034, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000038, 0x00000000},
++      {TOPAZ_VLC_START, 0x0000003C, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000040, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000044, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000048, 0x00000000},
++      {TOPAZ_VLC_START, 0x0000004C, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000050, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000054, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000058, 0x00000000},
++      {TOPAZ_VLC_START, 0x0000005C, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000060, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000064, 0x00000000},
++      {TOPAZ_VLC_START, 0x00000068, 0x00000000},
++      {TOPAZ_VLC_START, 0x0000006C, 0x00000000}
++};
++
++#define FIRMWARE_NAME "topaz_fw.bin"
++
++/* static function define */
++static int topaz_upload_fw(struct drm_device *dev,
++                      enum drm_lnc_topaz_codec codec);
++static inline void topaz_set_default_regs(struct drm_psb_private
++                                        *dev_priv);
++
++#define UPLOAD_FW_BY_DMA 1
++
++#if UPLOAD_FW_BY_DMA
++static void topaz_dma_transfer(struct drm_psb_private *dev_priv,
++                             uint32_t channel, uint32_t src_phy_addr,
++                             uint32_t offset, uint32_t dst_addr,
++                             uint32_t byte_num, uint32_t is_increment,
++                             uint32_t is_write);
++#else
++static void topaz_mtx_upload_by_register(struct drm_device *dev,
++                                       uint32_t mtx_mem, uint32_t addr,
++                                       uint32_t size,
++                                       struct ttm_buffer_object *buf);
++#endif
++
++static void topaz_write_core_reg(struct drm_psb_private *dev_priv,
++                               uint32_t reg, const uint32_t val);
++static void topaz_read_core_reg(struct drm_psb_private *dev_priv,
++                              uint32_t reg, uint32_t *ret_val);
++static void get_mtx_control_from_dash(struct drm_psb_private *dev_priv);
++static void release_mtx_control_from_dash(struct drm_psb_private
++                                        *dev_priv);
++static void topaz_mmu_hwsetup(struct drm_psb_private *dev_priv);
++static void mtx_dma_read(struct drm_device *dev, uint32_t source_addr,
++                      uint32_t size);
++static void mtx_dma_write(struct drm_device *dev);
++
++
++#define DEBUG_FUNCTION 0
++
++#if  DEBUG_FUNCTION
++static int topaz_test_null(struct drm_device *dev, uint32_t seq);
++static int topaz_test_sync(struct drm_device *dev, uint32_t seq,
++                      uint32_t sync_seq);
++static void topaz_mmu_test(struct drm_device *dev, uint32_t sync_value);
++static void topaz_save_default_regs(struct drm_psb_private *dev_priv,
++                              uint32_t *data);
++static void topaz_restore_default_regs(struct drm_psb_private *dev_priv,
++                              uint32_t *data);
++static int topaz_test_sync_manual_alloc_page(struct drm_device *dev,
++                                           uint32_t seq,
++                                           uint32_t sync_seq,
++                                           uint32_t offset);
++static int topaz_test_sync_tt_test(struct drm_device *dev,
++                                 uint32_t seq,
++                                 uint32_t sync_seq);
++#endif
++
++uint32_t topaz_read_mtx_mem(struct drm_psb_private *dev_priv,
++                          uint32_t byte_addr)
++{
++      uint32_t read_val;
++      uint32_t reg, bank_size, ram_bank_size, ram_id;
++
++      TOPAZ_READ32(0x3c, &reg);
++      reg = 0x0a0a0606;
++      bank_size = (reg & 0xF0000) >> 16;
++
++      ram_bank_size = (uint32_t) (1 << (bank_size + 2));
++      ram_id = (byte_addr - MTX_DATA_MEM_BASE) / ram_bank_size;
++
++      MTX_WRITE32(MTX_CR_MTX_RAM_ACCESS_CONTROL,
++                  F_ENCODE(0x18 + ram_id, MTX_MTX_MCMID) |
++                  F_ENCODE(byte_addr >> 2, MTX_MTX_MCM_ADDR) |
++                  F_ENCODE(1, MTX_MTX_MCMR));
++
++      /* ?? poll this reg? */
++      topaz_wait_for_register(dev_priv,
++                              MTX_START + MTX_CR_MTX_RAM_ACCESS_STATUS,
++                              1, 1);
++
++      MTX_READ32(MTX_CR_MTX_RAM_ACCESS_DATA_TRANSFER, &read_val);
++
++      return read_val;
++}
++
++void topaz_write_mtx_mem(struct drm_psb_private *dev_priv,
++                       uint32_t byte_addr, uint32_t val)
++{
++      uint32_t ram_id = 0;
++      uint32_t reg, bank_size, ram_bank_size;
++
++      TOPAZ_READ32(0x3c, &reg);
++
++      /* PSB_DEBUG_GENERAL ("TOPAZ: DEBUG REG(%x)\n", reg); */
++      reg = 0x0a0a0606;
++
++      bank_size = (reg & 0xF0000) >> 16;
++
++      ram_bank_size = (uint32_t) (1 << (bank_size + 2));
++      ram_id = (byte_addr - MTX_DATA_MEM_BASE) / ram_bank_size;
++
++      MTX_WRITE32(MTX_CR_MTX_RAM_ACCESS_CONTROL,
++                  F_ENCODE(0x18 + ram_id, MTX_MTX_MCMID) |
++                  F_ENCODE(byte_addr >> 2, MTX_MTX_MCM_ADDR));
++
++      MTX_WRITE32(MTX_CR_MTX_RAM_ACCESS_DATA_TRANSFER, val);
++
++      /* ?? poll this reg? */
++      topaz_wait_for_register(dev_priv,
++                              MTX_START + MTX_CR_MTX_RAM_ACCESS_STATUS,
++                              1, 1);
++
++      return;
++}
++
++void topaz_write_mtx_mem_multiple_setup(struct drm_psb_private *dev_priv,
++                                      uint32_t byte_addr)
++{
++      uint32_t ram_id = 0;
++      uint32_t reg, bank_size, ram_bank_size;
++
++      TOPAZ_READ32(0x3c, &reg);
++
++      reg = 0x0a0a0606;
++
++      bank_size = (reg & 0xF0000) >> 16;
++
++      ram_bank_size = (uint32_t) (1 << (bank_size + 2));
++      ram_id = (byte_addr - MTX_DATA_MEM_BASE) / ram_bank_size;
++
++      MTX_WRITE32(MTX_CR_MTX_RAM_ACCESS_CONTROL,
++                  F_ENCODE(0x18 + ram_id, MTX_MTX_MCMID) |
++                  F_ENCODE(1, MTX_MTX_MCMAI) |
++                  F_ENCODE(byte_addr >> 2, MTX_MTX_MCM_ADDR));
++}
++
++void topaz_write_mtx_mem_multiple(struct drm_psb_private *dev_priv,
++                                uint32_t val)
++{
++      MTX_WRITE32(MTX_CR_MTX_RAM_ACCESS_DATA_TRANSFER, val);
++}
++
++
++int topaz_wait_for_register(struct drm_psb_private *dev_priv,
++                      uint32_t addr, uint32_t value, uint32_t mask)
++{
++      uint32_t tmp;
++      uint32_t count = 10000;
++
++      /* # poll topaz register for certain times */
++      while (count) {
++              /* #.# read */
++              MM_READ32(addr, 0, &tmp);
++
++              if (value == (tmp & mask))
++                      return 0;
++
++              /* #.# delay and loop */
++              DRM_UDELAY(100);
++              --count;
++      }
++
++      /* # now waiting is timeout, return 1 indicat failed */
++      /* XXX: testsuit means a timeout 10000 */
++
++      DRM_ERROR("TOPAZ:time out to poll addr(0x%x) expected value(0x%08x), "
++              "actual 0x%08x (0x%08x & 0x%08x)\n",
++              addr, value, tmp & mask, tmp, mask);
++
++      return -EBUSY;
++
++}
++
++static ssize_t psb_topaz_pmstate_show(struct device *dev,
++                              struct device_attribute *attr, char *buf)
++{
++      struct drm_device *drm_dev = dev_get_drvdata(dev);
++      struct drm_psb_private *dev_priv;
++      struct topaz_private *topaz_priv;
++      unsigned int pmstate;
++      unsigned long flags;
++      int ret = -EINVAL;
++
++      if (drm_dev == NULL)
++              return 0;
++
++      dev_priv = drm_dev->dev_private;
++      topaz_priv = dev_priv->topaz_private;
++      pmstate = topaz_priv->pmstate;
++
++      pmstate = topaz_priv->pmstate;
++      spin_lock_irqsave(&topaz_priv->topaz_lock, flags);
++      ret = sprintf(buf, "%s\n",
++              (pmstate == PSB_PMSTATE_POWERUP) ? "powerup"
++              : ((pmstate == PSB_PMSTATE_POWERDOWN) ? "powerdown"
++                      : "clockgated"));
++      spin_unlock_irqrestore(&topaz_priv->topaz_lock, flags);
++
++      return ret;
++}
++
++static DEVICE_ATTR(topaz_pmstate, 0444, psb_topaz_pmstate_show, NULL);
++
++
++/* this function finish the first part of initialization, the rest
++ * should be done in topaz_setup_fw
++ */
++int lnc_topaz_init(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct ttm_bo_device *bdev = &dev_priv->bdev;
++      uint32_t core_id, core_rev;
++      int ret = 0, n;
++      bool is_iomem;
++      struct topaz_private *topaz_priv;
++      void *topaz_bo_virt;
++
++      PSB_DEBUG_GENERAL("TOPAZ: init topaz data structures\n");
++      topaz_priv = kmalloc(sizeof(struct topaz_private), GFP_KERNEL);
++      if (topaz_priv == NULL)
++              return -1;
++
++      dev_priv->topaz_private = topaz_priv;
++      memset(topaz_priv, 0, sizeof(struct topaz_private));
++
++      /* get device --> drm_device --> drm_psb_private --> topaz_priv
++       * for psb_topaz_pmstate_show: topaz_pmpolicy
++       * if not pci_set_drvdata, can't get drm_device from device
++       */
++      pci_set_drvdata(dev->pdev, dev);
++      if (device_create_file(&dev->pdev->dev,
++                             &dev_attr_topaz_pmstate))
++              DRM_ERROR("TOPAZ: could not create sysfs file\n");
++      topaz_priv->sysfs_pmstate = sysfs_get_dirent(
++              dev->pdev->dev.kobj.sd, "topaz_pmstate");
++
++      topaz_priv = dev_priv->topaz_private;
++
++      /* # initialize comand topaz queueing [msvdx_queue] */
++      INIT_LIST_HEAD(&topaz_priv->topaz_queue);
++      /* # init mutex? CHECK: mutex usage [msvdx_mutex] */
++      mutex_init(&topaz_priv->topaz_mutex);
++      /* # spin lock init? CHECK spin lock usage [msvdx_lock] */
++      spin_lock_init(&topaz_priv->topaz_lock);
++
++      /* # topaz status init. [msvdx_busy] */
++      topaz_priv->topaz_busy = 0;
++      topaz_priv->topaz_cmd_seq = 0;
++      topaz_priv->topaz_fw_loaded = 0;
++      /* FIXME: workaround since JPEG firmware is not ready */
++      topaz_priv->topaz_cur_codec = 1;
++      topaz_priv->cur_mtx_data_size = 0;
++
++      topaz_priv->topaz_mtx_reg_state = kmalloc(TOPAZ_MTX_REG_SIZE,
++                                                GFP_KERNEL);
++      if (topaz_priv->topaz_mtx_reg_state == NULL) {
++              DRM_ERROR("TOPAZ: failed to allocate space "
++                        "for mtx register\n");
++              return -1;
++      }
++
++      /* # gain write back structure,we may only need 32+4=40DW */
++      ret = ttm_buffer_object_create(bdev, 4096,
++                              ttm_bo_type_kernel,
++                              DRM_PSB_FLAG_MEM_MMU | TTM_PL_FLAG_NO_EVICT,
++                              0, 0, 0, NULL, &(topaz_priv->topaz_bo));
++      if (ret != 0) {
++              DRM_ERROR("TOPAZ: failed to allocate topaz BO.\n");
++              return ret;
++      }
++
++      ret = ttm_bo_kmap(topaz_priv->topaz_bo, 0,
++                        topaz_priv->topaz_bo->num_pages,
++                        &topaz_priv->topaz_bo_kmap);
++      if (ret) {
++              DRM_ERROR("TOPAZ: map topaz BO bo failed......\n");
++              ttm_bo_unref(&topaz_priv->topaz_bo);
++              return ret;
++      }
++
++      topaz_bo_virt = ttm_kmap_obj_virtual(&topaz_priv->topaz_bo_kmap,
++                                           &is_iomem);
++      topaz_priv->topaz_ccb_wb =  (void *) topaz_bo_virt;
++      topaz_priv->topaz_wb_offset = topaz_priv->topaz_bo->offset;
++      topaz_priv->topaz_sync_addr =  (uint32_t *) (topaz_bo_virt
++                                                   + 2048);
++      topaz_priv->topaz_sync_offset = topaz_priv->topaz_wb_offset
++              + 2048;
++      PSB_DEBUG_GENERAL("TOPAZ: alloc BO for WriteBack and SYNC\n");
++      PSB_DEBUG_GENERAL("TOPAZ: WB offset=0x%08x\n",
++                        topaz_priv->topaz_wb_offset);
++      PSB_DEBUG_GENERAL("TOPAZ: SYNC offset=0x%08x\n",
++                        topaz_priv->topaz_sync_offset);
++
++      *(topaz_priv->topaz_sync_addr) =  ~0; /* reset sync seq */
++
++      /* # reset topaz */
++      MVEA_WRITE32(MVEA_CR_IMG_MVEA_SRST,
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_SPE_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_IPE_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_CMC_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_DCF_SOFT_RESET));
++
++      MVEA_WRITE32(MVEA_CR_IMG_MVEA_SRST,
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_SPE_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_IPE_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_CMC_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_DCF_SOFT_RESET));
++
++      /* # set up MMU */
++      topaz_mmu_hwsetup(dev_priv);
++
++      PSB_DEBUG_GENERAL("TOPAZ: defer firmware loading to the place"
++                        "when receiving user space commands\n");
++
++#if 0 /* can't load FW here */
++      /* #.# load fw to driver */
++      PSB_DEBUG_GENERAL("TOPAZ: will init firmware\n");
++      ret = topaz_init_fw(dev);
++      if (ret != 0)
++              return -1;
++
++      topaz_setup_fw(dev, IMG_CODEC_MPEG4_NO_RC);/* just for test */
++#endif
++      /* <msvdx does> # minimal clock */
++
++      /* <msvdx does> # return 0 */
++      TOPAZ_READ32(TOPAZ_CR_IMG_TOPAZ_CORE_ID, &core_id);
++      TOPAZ_READ32(TOPAZ_CR_IMG_TOPAZ_CORE_REV, &core_rev);
++
++      PSB_DEBUG_GENERAL("TOPAZ: core_id(%x) core_rev(%x)\n",
++                        core_id, core_rev);
++
++      /* create firmware storage */
++      for (n = 1; n < IMG_CODEC_NUM; ++n) {
++              /* #.# malloc DRM object for fw storage */
++              ret = ttm_buffer_object_create(bdev, 12 * 4096,
++                              ttm_bo_type_kernel,
++                              DRM_PSB_FLAG_MEM_MMU | TTM_PL_FLAG_NO_EVICT,
++                              0, 0, 0, NULL, &topaz_priv->topaz_fw[n].text);
++              if (ret) {
++                      DRM_ERROR("Failed to allocate firmware.\n");
++                      goto out;
++              }
++
++              /* #.# malloc DRM object for fw storage */
++              ret = ttm_buffer_object_create(bdev, 12 * 4096,
++                              ttm_bo_type_kernel,
++                              DRM_PSB_FLAG_MEM_MMU | TTM_PL_FLAG_NO_EVICT,
++                              0, 0, 0, NULL, &topaz_priv->topaz_fw[n].data);
++              if (ret) {
++                      DRM_ERROR("Failed to allocate firmware.\n");
++                      goto out;
++              }
++      }
++
++      ret = ttm_buffer_object_create(bdev,
++                                     12 * 4096,
++                                     ttm_bo_type_kernel,
++                                     DRM_PSB_FLAG_MEM_MMU |
++                                     TTM_PL_FLAG_NO_EVICT,
++                                     0, 0, 0, NULL,
++                                     &topaz_priv->topaz_mtx_data_mem);
++      if (ret) {
++              DRM_ERROR("TOPAZ: failed to allocate ttm buffer for "
++                        "mtx data save\n");
++              goto out;
++      }
++      topaz_priv->cur_mtx_data_size = 0;
++
++      PSB_DEBUG_INIT("TOPAZ:old clock gating disable = 0x%08x\n",
++              PSB_RVDC32(PSB_TOPAZ_CLOCKGATING));
++      PSB_DEBUG_INIT("TOPAZ:rest MSDVX to disable clock gating\n");
++
++      PSB_WVDC32(0x00011fff, PSB_TOPAZ_CLOCKGATING);
++
++      PSB_DEBUG_INIT("MSDVX:new clock gating disable = 0x%08x\n",
++              PSB_RVDC32(PSB_TOPAZ_CLOCKGATING));
++
++      return 0;
++
++out:
++      for (n = 1; n < IMG_CODEC_NUM; ++n) {
++              if (topaz_priv->topaz_fw[n].text != NULL)
++                      ttm_bo_unref(&topaz_priv->topaz_fw[n].text);
++              if (topaz_priv->topaz_fw[n].data != NULL)
++                      ttm_bo_unref(&topaz_priv->topaz_fw[n].data);
++      }
++
++      if (topaz_priv->topaz_mtx_data_mem != NULL)
++              ttm_bo_unref(&topaz_priv->topaz_mtx_data_mem);
++
++      return ret;
++}
++
++int lnc_topaz_uninit(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++      int n;
++
++      /* flush MMU */
++      PSB_DEBUG_GENERAL("XXX: need to flush mmu cache here??\n");
++      /* topaz_mmu_flushcache (dev_priv); */
++
++      /* # reset TOPAZ chip */
++      lnc_topaz_reset(dev_priv);
++
++      /* release resources */
++      /* # release write back memory */
++      topaz_priv->topaz_ccb_wb = NULL;
++
++      /* release mtx register save space */
++      kfree(topaz_priv->topaz_mtx_reg_state);
++
++      /* release mtx data memory save space */
++      if (topaz_priv->topaz_mtx_data_mem)
++              ttm_bo_unref(&topaz_priv->topaz_mtx_data_mem);
++
++      /* # release firmware storage */
++      for (n = 1; n < IMG_CODEC_NUM; ++n) {
++              if (topaz_priv->topaz_fw[n].text != NULL)
++                      ttm_bo_unref(&topaz_priv->topaz_fw[n].text);
++              if (topaz_priv->topaz_fw[n].data != NULL)
++                      ttm_bo_unref(&topaz_priv->topaz_fw[n].data);
++      }
++
++      ttm_bo_kunmap(&topaz_priv->topaz_bo_kmap);
++      ttm_bo_unref(&topaz_priv->topaz_bo);
++
++      if (topaz_priv) {
++              pci_set_drvdata(dev->pdev, NULL);
++              device_remove_file(&dev->pdev->dev, &dev_attr_topaz_pmstate);
++              sysfs_put(topaz_priv->sysfs_pmstate);
++              topaz_priv->sysfs_pmstate = NULL;
++
++              kfree(topaz_priv);
++              dev_priv->topaz_private = NULL;
++      }
++
++      return 0;
++}
++
++int lnc_topaz_reset(struct drm_psb_private *dev_priv)
++{
++      struct topaz_private *topaz_priv;
++
++      topaz_priv = dev_priv->topaz_private;
++      topaz_priv->topaz_busy = 0;
++      topaz_priv->topaz_cmd_seq = 0;
++      topaz_priv->cur_mtx_data_size = 0;
++      topaz_priv->topaz_cmd_windex = 0;
++      topaz_priv->topaz_needs_reset = 0;
++
++      /* # reset topaz */
++      MVEA_WRITE32(MVEA_CR_IMG_MVEA_SRST,
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_SPE_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_IPE_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_CMC_SOFT_RESET) |
++                   F_ENCODE(1, MVEA_CR_IMG_MVEA_DCF_SOFT_RESET));
++
++      MVEA_WRITE32(MVEA_CR_IMG_MVEA_SRST,
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_SPE_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_IPE_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_CMC_SOFT_RESET) |
++                   F_ENCODE(0, MVEA_CR_IMG_MVEA_DCF_SOFT_RESET));
++
++      /* # set up MMU */
++      topaz_mmu_hwsetup(dev_priv);
++
++      return 0;
++}
++
++/* read firmware bin file and load all data into driver */
++int topaz_init_fw(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      const struct firmware *raw = NULL;
++      unsigned char *ptr;
++      int ret = 0;
++      int n;
++      struct topaz_fwinfo *cur_fw;
++      int cur_size;
++      struct topaz_codec_fw *cur_codec;
++      struct ttm_buffer_object **cur_drm_obj;
++      struct ttm_bo_kmap_obj tmp_kmap;
++      bool is_iomem;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      topaz_priv->stored_initial_qp = 0;
++
++      /* # get firmware */
++      ret = request_firmware(&raw, FIRMWARE_NAME, &dev->pdev->dev);
++      if (ret != 0) {
++              DRM_ERROR("TOPAZ: request_firmware failed: %d\n", ret);
++              return ret;
++      }
++
++      PSB_DEBUG_GENERAL("TOPAZ: opened firmware\n");
++
++      if (raw && (raw->size < sizeof(struct topaz_fwinfo))) {
++              DRM_ERROR("TOPAZ: firmware file is not correct size.\n");
++              goto out;
++      }
++
++      ptr = (unsigned char *) raw->data;
++
++      if (!ptr) {
++              DRM_ERROR("TOPAZ: failed to load firmware.\n");
++              goto out;
++      }
++
++      /* # load fw from file */
++      PSB_DEBUG_GENERAL("TOPAZ: load firmware.....\n");
++      cur_fw = NULL;
++      /* didn't use the first element */
++      for (n = 1; n < IMG_CODEC_NUM; ++n) {
++              cur_fw = (struct topaz_fwinfo *) ptr;
++
++              cur_codec = &topaz_priv->topaz_fw[cur_fw->codec];
++              cur_codec->ver = cur_fw->ver;
++              cur_codec->codec = cur_fw->codec;
++              cur_codec->text_size = cur_fw->text_size;
++              cur_codec->data_size = cur_fw->data_size;
++              cur_codec->data_location = cur_fw->data_location;
++
++              PSB_DEBUG_GENERAL("TOPAZ: load firemware %s.\n",
++                              codec_to_string(cur_fw->codec));
++
++              /* #.# handle text section */
++              ptr += sizeof(struct topaz_fwinfo);
++              cur_drm_obj = &cur_codec->text;
++              cur_size = cur_fw->text_size;
++
++              /* #.# fill DRM object with firmware data */
++              ret = ttm_bo_kmap(*cur_drm_obj, 0, (*cur_drm_obj)->num_pages,
++                              &tmp_kmap);
++              if (ret) {
++                      PSB_DEBUG_GENERAL("drm_bo_kmap failed: %d\n", ret);
++                      ttm_bo_unref(cur_drm_obj);
++                      *cur_drm_obj = NULL;
++                      goto out;
++              }
++
++              memcpy(ttm_kmap_obj_virtual(&tmp_kmap, &is_iomem), ptr,
++                     cur_size);
++
++              ttm_bo_kunmap(&tmp_kmap);
++
++              /* #.# handle data section */
++              ptr += cur_fw->text_size;
++              cur_drm_obj = &cur_codec->data;
++              cur_size = cur_fw->data_size;
++
++              /* #.# fill DRM object with firmware data */
++              ret = ttm_bo_kmap(*cur_drm_obj, 0, (*cur_drm_obj)->num_pages,
++                              &tmp_kmap);
++              if (ret) {
++                      PSB_DEBUG_GENERAL("drm_bo_kmap failed: %d\n", ret);
++                      ttm_bo_unref(cur_drm_obj);
++                      *cur_drm_obj = NULL;
++                      goto out;
++              }
++
++              memcpy(ttm_kmap_obj_virtual(&tmp_kmap, &is_iomem), ptr,
++                     cur_size);
++
++              ttm_bo_kunmap(&tmp_kmap);
++
++              /* #.# validate firmware */
++
++              /* #.# update ptr */
++              ptr += cur_fw->data_size;
++      }
++
++      release_firmware(raw);
++
++      PSB_DEBUG_GENERAL("TOPAZ: return from firmware init\n");
++
++      return 0;
++
++out:
++      if (raw) {
++              PSB_DEBUG_GENERAL("release firmware....\n");
++              release_firmware(raw);
++      }
++
++      return -1;
++}
++
++/* setup fw when start a new context */
++int topaz_setup_fw(struct drm_device *dev, enum drm_lnc_topaz_codec codec)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      uint32_t mem_size = RAM_SIZE; /* follow DDK */
++      uint32_t verify_pc;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++#if 0
++      if (codec == topaz_priv->topaz_current_codec) {
++              LNC_TRACEL("TOPAZ: reuse previous codec\n");
++              return 0;
++      }
++#endif
++
++      /* XXX: need to rest topaz? */
++      PSB_DEBUG_GENERAL("XXX: should reset topaz when context change?\n");
++
++      /* XXX: interrupt enable shouldn't be enable here,
++       * this funtion is called when interrupt is enable,
++       * but here, we've no choice since we have to call setup_fw by
++       * manual */
++      /* # upload firmware, clear interruputs and start the firmware
++       * -- from  hostutils.c in TestSuits*/
++
++      /* # reset MVEA */
++      MVEA_WRITE32(MVEA_CR_IMG_MVEA_SRST,
++              F_ENCODE(1, MVEA_CR_IMG_MVEA_SPE_SOFT_RESET) |
++              F_ENCODE(1, MVEA_CR_IMG_MVEA_IPE_SOFT_RESET) |
++              F_ENCODE(1, MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET) |
++              F_ENCODE(1, MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET) |
++              F_ENCODE(1, MVEA_CR_IMG_MVEA_CMC_SOFT_RESET) |
++              F_ENCODE(1, MVEA_CR_IMG_MVEA_DCF_SOFT_RESET));
++
++      MVEA_WRITE32(MVEA_CR_IMG_MVEA_SRST,
++              F_ENCODE(0, MVEA_CR_IMG_MVEA_SPE_SOFT_RESET) |
++              F_ENCODE(0, MVEA_CR_IMG_MVEA_IPE_SOFT_RESET) |
++              F_ENCODE(0, MVEA_CR_IMG_MVEA_CMPRS_SOFT_RESET) |
++              F_ENCODE(0, MVEA_CR_IMG_MVEA_JMCOMP_SOFT_RESET) |
++              F_ENCODE(0, MVEA_CR_IMG_MVEA_CMC_SOFT_RESET) |
++              F_ENCODE(0, MVEA_CR_IMG_MVEA_DCF_SOFT_RESET));
++
++
++      topaz_mmu_hwsetup(dev_priv);
++
++#if !LNC_TOPAZ_NO_IRQ
++      psb_irq_uninstall_islands(dev, PSB_VIDEO_ENC_ISLAND);
++#endif
++
++      PSB_DEBUG_GENERAL("TOPAZ: will setup firmware....\n");
++
++      topaz_set_default_regs(dev_priv);
++
++      /* # reset mtx */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_SRST,
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_MVEA_SOFT_RESET) |
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_MTX_SOFT_RESET) |
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_VLC_SOFT_RESET));
++
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_SRST, 0x0);
++
++      /* # upload fw by drm */
++      PSB_DEBUG_GENERAL("TOPAZ: will upload firmware\n");
++
++      topaz_upload_fw(dev, codec);
++#if 0
++      /* allocate the space for context save & restore if needed */
++      if (topaz_priv->topaz_mtx_data_mem == NULL) {
++              ret = ttm_buffer_object_create(bdev,
++                                      topaz_priv->cur_mtx_data_size * 4,
++                                      ttm_bo_type_kernel,
++                                      DRM_PSB_FLAG_MEM_MMU |
++                                      TTM_PL_FLAG_NO_EVICT,
++                                      0, 0, 0, NULL,
++                                      &topaz_priv->topaz_mtx_data_mem);
++              if (ret) {
++                      DRM_ERROR("TOPAZ: failed to allocate ttm buffer for "
++                              "mtx data save\n");
++                      return -1;
++              }
++      }
++      PSB_DEBUG_GENERAL("TOPAZ: after upload fw ....\n");
++#endif
++
++      /* XXX: In power save mode, need to save the complete data memory
++       * and restore it. MTX_FWIF.c record the data size  */
++      PSB_DEBUG_GENERAL("TOPAZ:in power save mode need to save memory?\n");
++
++      PSB_DEBUG_GENERAL("TOPAZ: setting up pc address\n");
++      topaz_write_core_reg(dev_priv, TOPAZ_MTX_PC, PC_START_ADDRESS);
++
++      PSB_DEBUG_GENERAL("TOPAZ: verify pc address\n");
++
++      topaz_read_core_reg(dev_priv, TOPAZ_MTX_PC, &verify_pc);
++
++      /* enable auto clock is essential for this driver */
++      TOPAZ_WRITE32(TOPAZ_CR_TOPAZ_AUTO_CLK_GATE,
++              F_ENCODE(1, TOPAZ_CR_TOPAZ_VLC_AUTO_CLK_GATE) |
++              F_ENCODE(1, TOPAZ_CR_TOPAZ_DB_AUTO_CLK_GATE));
++      MVEA_WRITE32(MVEA_CR_MVEA_AUTO_CLOCK_GATING,
++              F_ENCODE(1, MVEA_CR_MVEA_IPE_AUTO_CLK_GATE) |
++              F_ENCODE(1, MVEA_CR_MVEA_SPE_AUTO_CLK_GATE) |
++              F_ENCODE(1, MVEA_CR_MVEA_CMPRS_AUTO_CLK_GATE) |
++              F_ENCODE(1, MVEA_CR_MVEA_JMCOMP_AUTO_CLK_GATE));
++
++      PSB_DEBUG_GENERAL("TOPAZ: current pc(%08X) vs %08X\n",
++                      verify_pc, PC_START_ADDRESS);
++
++      /* # turn on MTX */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_INTCLEAR,
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX));
++
++      MTX_WRITE32(MTX_CORE_CR_MTX_ENABLE_OFFSET,
++              MTX_CORE_CR_MTX_ENABLE_MTX_ENABLE_MASK);
++
++      /* # poll on the interrupt which the firmware will generate */
++      topaz_wait_for_register(dev_priv,
++                              TOPAZ_START + TOPAZ_CR_IMG_TOPAZ_INTSTAT,
++                              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTS_MTX),
++                              F_MASK(TOPAZ_CR_IMG_TOPAZ_INTS_MTX));
++
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_INTCLEAR,
++              F_ENCODE(1, TOPAZ_CR_IMG_TOPAZ_INTCLR_MTX));
++
++      PSB_DEBUG_GENERAL("TOPAZ: after topaz mtx setup ....\n");
++
++      /* # get ccb buffer addr -- file hostutils.c */
++      topaz_priv->topaz_ccb_buffer_addr =
++              topaz_read_mtx_mem(dev_priv,
++                              MTX_DATA_MEM_BASE + mem_size - 4);
++      topaz_priv->topaz_ccb_ctrl_addr =
++              topaz_read_mtx_mem(dev_priv,
++                              MTX_DATA_MEM_BASE + mem_size - 8);
++      topaz_priv->topaz_ccb_size =
++              topaz_read_mtx_mem(dev_priv,
++                              topaz_priv->topaz_ccb_ctrl_addr +
++                              MTX_CCBCTRL_CCBSIZE);
++
++      topaz_priv->topaz_cmd_windex = 0;
++
++      PSB_DEBUG_GENERAL("TOPAZ:ccb_buffer_addr(%x),ctrl_addr(%x) size(%d)\n",
++                      topaz_priv->topaz_ccb_buffer_addr,
++                      topaz_priv->topaz_ccb_ctrl_addr,
++                      topaz_priv->topaz_ccb_size);
++
++      /* # write back the initial QP Value */
++      topaz_write_mtx_mem(dev_priv,
++                      topaz_priv->topaz_ccb_ctrl_addr + MTX_CCBCTRL_INITQP,
++                      topaz_priv->stored_initial_qp);
++
++      PSB_DEBUG_GENERAL("TOPAZ: write WB mem address 0x%08x\n",
++                      topaz_priv->topaz_wb_offset);
++      topaz_write_mtx_mem(dev_priv, MTX_DATA_MEM_BASE + mem_size - 12,
++                      topaz_priv->topaz_wb_offset);
++
++      /* this kick is essential for mtx.... */
++      *((uint32_t *) topaz_priv->topaz_ccb_wb) = 0x01020304;
++      topaz_mtx_kick(dev_priv, 1);
++      DRM_UDELAY(1000);
++      PSB_DEBUG_GENERAL("TOPAZ: DDK expected 0x12345678 in WB memory,"
++                      " and here it is 0x%08x\n",
++                      *((uint32_t *) topaz_priv->topaz_ccb_wb));
++
++      *((uint32_t *) topaz_priv->topaz_ccb_wb) = 0x0;/* reset it to 0 */
++      PSB_DEBUG_GENERAL("TOPAZ: firmware uploaded.\n");
++
++      /* XXX: is there any need to record next cmd num??
++       * we use fence seqence number to record it
++       */
++      topaz_priv->topaz_busy = 0;
++      topaz_priv->topaz_cmd_seq = 0;
++
++#if !LNC_TOPAZ_NO_IRQ
++      psb_irq_preinstall_islands(dev, PSB_VIDEO_ENC_ISLAND);
++      psb_irq_postinstall_islands(dev, PSB_VIDEO_ENC_ISLAND);
++      lnc_topaz_enableirq(dev);
++#endif
++
++#if 0
++      topaz_mmu_flushcache(dev_priv);
++      topaz_test_null(dev, 0xe1e1);
++      topaz_test_null(dev, 0xe2e2);
++      topaz_test_sync(dev, 0xe2e2, 0x87654321);
++
++      topaz_mmu_test(dev, 0x12345678);
++      topaz_test_null(dev, 0xe3e3);
++      topaz_mmu_test(dev, 0x8764321);
++
++      topaz_test_null(dev, 0xe4e4);
++      topaz_test_null(dev, 0xf3f3);
++#endif
++
++      return 0;
++}
++
++#if UPLOAD_FW_BY_DMA
++int topaz_upload_fw(struct drm_device *dev, enum drm_lnc_topaz_codec codec)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      const struct topaz_codec_fw *cur_codec_fw;
++      uint32_t text_size, data_size;
++      uint32_t data_location;
++      uint32_t cur_mtx_data_size;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      /* # refer HLD document */
++
++      /* # MTX reset */
++      PSB_DEBUG_GENERAL("TOPAZ: mtx reset.\n");
++      MTX_WRITE32(MTX_CORE_CR_MTX_SOFT_RESET_OFFSET,
++              MTX_CORE_CR_MTX_SOFT_RESET_MTX_RESET_MASK);
++
++      DRM_UDELAY(6000);
++
++      /* # upload the firmware by DMA */
++      cur_codec_fw = &topaz_priv->topaz_fw[codec];
++
++      PSB_DEBUG_GENERAL("Topaz:upload codec %s(%d) text sz=%d data sz=%d"
++                      " data location(%d)\n", codec_to_string(codec), codec,
++                      cur_codec_fw->text_size, cur_codec_fw->data_size,
++                      cur_codec_fw->data_location);
++
++      /* # upload text */
++      text_size = cur_codec_fw->text_size / 4;
++
++      /* setup the MTX to start recieving data:
++         use a register for the transfer which will point to the source
++         (MTX_CR_MTX_SYSC_CDMAT) */
++      /* #.# fill the dst addr */
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAA, 0x80900000);
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAC,
++              F_ENCODE(2, MTX_BURSTSIZE) |
++              F_ENCODE(0, MTX_RNW) |
++              F_ENCODE(1, MTX_ENABLE) |
++              F_ENCODE(text_size, MTX_LENGTH));
++
++      /* #.# set DMAC access to host memory via BIF */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 1);
++
++      /* #.# transfer the codec */
++      topaz_dma_transfer(dev_priv, 0, cur_codec_fw->text->offset, 0,
++                      MTX_CR_MTX_SYSC_CDMAT, text_size, 0, 0);
++
++      /* #.# wait dma finish */
++      topaz_wait_for_register(dev_priv,
++                              DMAC_START + IMG_SOC_DMAC_IRQ_STAT(0),
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN),
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN));
++
++      /* #.# clear interrupt */
++      DMAC_WRITE32(IMG_SOC_DMAC_IRQ_STAT(0), 0);
++
++      /* # return access to topaz core */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 0);
++
++      /* # upload data */
++      data_size = cur_codec_fw->data_size / 4;
++      data_location = cur_codec_fw->data_location;
++
++      /* #.# fill the dst addr */
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAA,
++                  0x80900000 + (data_location - 0x82880000));
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAC,
++              F_ENCODE(2, MTX_BURSTSIZE) |
++              F_ENCODE(0, MTX_RNW) |
++              F_ENCODE(1, MTX_ENABLE) |
++              F_ENCODE(data_size, MTX_LENGTH));
++
++      /* #.# set DMAC access to host memory via BIF */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 1);
++
++      /* #.# transfer the codec */
++      topaz_dma_transfer(dev_priv, 0, cur_codec_fw->data->offset, 0,
++                      MTX_CR_MTX_SYSC_CDMAT, data_size, 0, 0);
++
++      /* #.# wait dma finish */
++      topaz_wait_for_register(dev_priv,
++                              DMAC_START + IMG_SOC_DMAC_IRQ_STAT(0),
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN),
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN));
++
++      /* #.# clear interrupt */
++      DMAC_WRITE32(IMG_SOC_DMAC_IRQ_STAT(0), 0);
++
++      /* # return access to topaz core */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 0);
++
++      /* record this codec's mtx data size for
++       * context save & restore */
++      /* FIXME: since non-root sighting fixed by pre allocated,
++       * only need to correct the buffer size
++       */
++      cur_mtx_data_size = data_size;
++      if (topaz_priv->cur_mtx_data_size != cur_mtx_data_size)
++              topaz_priv->cur_mtx_data_size = cur_mtx_data_size;
++
++      return 0;
++}
++
++#else
++
++void topaz_mtx_upload_by_register(struct drm_device *dev, uint32_t mtx_mem,
++                                uint32_t addr, uint32_t size,
++                                struct ttm_buffer_object *buf)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      uint32_t *buf_p;
++      uint32_t debug_reg, bank_size, bank_ram_size, bank_count;
++      uint32_t cur_ram_id, ram_addr , ram_id;
++      int map_ret, lp;
++      struct ttm_bo_kmap_obj bo_kmap;
++      bool is_iomem;
++      uint32_t cur_addr;
++
++      get_mtx_control_from_dash(dev_priv);
++
++      map_ret = ttm_bo_kmap(buf, 0, buf->num_pages, &bo_kmap);
++      if (map_ret) {
++              DRM_ERROR("TOPAZ: drm_bo_kmap failed: %d\n", map_ret);
++              return;
++      }
++      buf_p = (uint32_t *) ttm_kmap_obj_virtual(&bo_kmap, &is_iomem);
++
++
++      TOPAZ_READ32(TOPAZ_CORE_CR_MTX_DEBUG_OFFSET, &debug_reg);
++      debug_reg = 0x0a0a0606;
++      bank_size = (debug_reg & 0xf0000) >> 16;
++      bank_ram_size = 1 << (bank_size + 2);
++
++      bank_count = (debug_reg & 0xf00) >> 8;
++
++      topaz_wait_for_register(dev_priv,
++              MTX_START+MTX_CORE_CR_MTX_RAM_ACCESS_STATUS_OFFSET,
++              MTX_CORE_CR_MTX_RAM_ACCESS_STATUS_MTX_MTX_MCM_STAT_MASK,
++              MTX_CORE_CR_MTX_RAM_ACCESS_STATUS_MTX_MTX_MCM_STAT_MASK);
++
++      cur_ram_id = -1;
++      cur_addr = addr;
++      for (lp = 0; lp < size / 4; ++lp) {
++              ram_id = mtx_mem + (cur_addr / bank_ram_size);
++
++              if (cur_ram_id != ram_id) {
++                      ram_addr = cur_addr >> 2;
++
++                      MTX_WRITE32(MTX_CORE_CR_MTX_RAM_ACCESS_CONTROL_OFFSET,
++                              F_ENCODE(ram_id, MTX_MTX_MCMID) |
++                              F_ENCODE(ram_addr, MTX_MTX_MCM_ADDR) |
++                              F_ENCODE(1, MTX_MTX_MCMAI));
++
++                      cur_ram_id = ram_id;
++              }
++              cur_addr += 4;
++
++              MTX_WRITE32(MTX_CORE_CR_MTX_RAM_ACCESS_DATA_TRANSFER_OFFSET,
++                      *(buf_p + lp));
++
++              topaz_wait_for_register(dev_priv,
++                      MTX_CORE_CR_MTX_RAM_ACCESS_STATUS_OFFSET + MTX_START,
++              MTX_CORE_CR_MTX_RAM_ACCESS_STATUS_MTX_MTX_MCM_STAT_MASK,
++              MTX_CORE_CR_MTX_RAM_ACCESS_STATUS_MTX_MTX_MCM_STAT_MASK);
++      }
++
++      ttm_bo_kunmap(&bo_kmap);
++
++      PSB_DEBUG_GENERAL("TOPAZ: register data upload done\n");
++      return;
++}
++
++int topaz_upload_fw(struct drm_device *dev, enum drm_lnc_topaz_codec codec)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      const struct topaz_codec_fw *cur_codec_fw;
++      uint32_t text_size, data_size;
++      uint32_t data_location;
++
++      /* # refer HLD document */
++      /* # MTX reset */
++      PSB_DEBUG_GENERAL("TOPAZ: mtx reset.\n");
++      MTX_WRITE32(MTX_CORE_CR_MTX_SOFT_RESET_OFFSET,
++                  MTX_CORE_CR_MTX_SOFT_RESET_MTX_RESET_MASK);
++
++      DRM_UDELAY(6000);
++
++      /* # upload the firmware by DMA */
++      cur_codec_fw = &topaz_priv->topaz_fw[codec];
++
++      PSB_DEBUG_GENERAL("Topaz: upload codec %s text size(%d) data size(%d)"
++                      " data location(0x%08x)\n", codec_to_string(codec),
++                      cur_codec_fw->text_size, cur_codec_fw->data_size,
++                      cur_codec_fw->data_location);
++
++      /* # upload text */
++      text_size = cur_codec_fw->text_size;
++
++      topaz_mtx_upload_by_register(dev, LNC_MTX_CORE_CODE_MEM,
++                                   PC_START_ADDRESS - MTX_MEMORY_BASE,
++                                   text_size, cur_codec_fw->text);
++
++      /* # upload data */
++      data_size = cur_codec_fw->data_size;
++      data_location = cur_codec_fw->data_location;
++
++      topaz_mtx_upload_by_register(dev, LNC_MTX_CORE_DATA_MEM,
++                                   data_location - 0x82880000, data_size,
++                                   cur_codec_fw->data);
++
++      return 0;
++}
++
++#endif /* UPLOAD_FW_BY_DMA */
++
++void
++topaz_dma_transfer(struct drm_psb_private *dev_priv, uint32_t channel,
++                 uint32_t src_phy_addr, uint32_t offset,
++                 uint32_t soc_addr, uint32_t byte_num,
++                 uint32_t is_increment, uint32_t is_write)
++{
++      uint32_t dmac_count;
++      uint32_t irq_stat;
++      uint32_t count;
++
++      PSB_DEBUG_GENERAL("TOPAZ: using dma to transfer firmware\n");
++      /* # check that no transfer is currently in progress and no
++         interrupts are outstanding ?? (why care interrupt) */
++      DMAC_READ32(IMG_SOC_DMAC_COUNT(channel), &dmac_count);
++      if (0 != (dmac_count & (MASK_IMG_SOC_EN | MASK_IMG_SOC_LIST_EN)))
++              DRM_ERROR("TOPAZ: there is tranfer in progress\n");
++
++      /* assert(0==(dmac_count & (MASK_IMG_SOC_EN | MASK_IMG_SOC_LIST_EN)));*/
++
++      /* no hold off period */
++      DMAC_WRITE32(IMG_SOC_DMAC_PER_HOLD(channel), 0);
++      /* clear previous interrupts */
++      DMAC_WRITE32(IMG_SOC_DMAC_IRQ_STAT(channel), 0);
++      /* check irq status */
++      DMAC_READ32(IMG_SOC_DMAC_IRQ_STAT(channel), &irq_stat);
++      /* assert(0 == irq_stat); */
++      if (0 != irq_stat)
++              DRM_ERROR("TOPAZ: there is hold up\n");
++
++      DMAC_WRITE32(IMG_SOC_DMAC_SETUP(channel),
++                   (src_phy_addr + offset));
++      count = DMAC_VALUE_COUNT(DMAC_BSWAP_NO_SWAP, DMAC_PWIDTH_32_BIT,
++                              is_write, DMAC_PWIDTH_32_BIT, byte_num);
++      /* generate an interrupt at the end of transfer */
++      count |= MASK_IMG_SOC_TRANSFER_IEN;
++      count |= F_ENCODE(is_write, IMG_SOC_DIR);
++      DMAC_WRITE32(IMG_SOC_DMAC_COUNT(channel), count);
++
++      DMAC_WRITE32(IMG_SOC_DMAC_PERIPH(channel),
++                   DMAC_VALUE_PERIPH_PARAM(DMAC_ACC_DEL_0,
++                                           is_increment, DMAC_BURST_2));
++
++      DMAC_WRITE32(IMG_SOC_DMAC_PERIPHERAL_ADDR(channel), soc_addr);
++
++      /* Finally, rewrite the count register with
++       * the enable bit set to kick off the transfer
++       */
++      DMAC_WRITE32(IMG_SOC_DMAC_COUNT(channel), count | MASK_IMG_SOC_EN);
++
++      PSB_DEBUG_GENERAL("TOPAZ: dma transfer started.\n");
++
++      return;
++}
++
++void topaz_set_default_regs(struct drm_psb_private *dev_priv)
++{
++      int n;
++      int count = sizeof(topaz_default_regs) / (sizeof(unsigned long) * 3);
++
++      for (n = 0; n < count; n++)
++              MM_WRITE32(topaz_default_regs[n][0],
++                         topaz_default_regs[n][1],
++                         topaz_default_regs[n][2]);
++
++}
++
++void topaz_write_core_reg(struct drm_psb_private *dev_priv, uint32_t reg,
++                        const uint32_t val)
++{
++      uint32_t tmp;
++      get_mtx_control_from_dash(dev_priv);
++
++      /* put data into MTX_RW_DATA */
++      MTX_WRITE32(MTX_CORE_CR_MTX_REGISTER_READ_WRITE_DATA_OFFSET, val);
++
++      /* request a write */
++      tmp = reg &
++              ~MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK;
++      MTX_WRITE32(MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_OFFSET, tmp);
++
++      /* wait for operation finished */
++      topaz_wait_for_register(dev_priv,
++              MTX_START +
++              MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_OFFSET,
++              MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK,
++              MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK);
++
++      release_mtx_control_from_dash(dev_priv);
++}
++
++void topaz_read_core_reg(struct drm_psb_private *dev_priv, uint32_t reg,
++                      uint32_t *ret_val)
++{
++      uint32_t tmp;
++
++      get_mtx_control_from_dash(dev_priv);
++
++      /* request a write */
++      tmp = (reg &
++              ~MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK);
++      MTX_WRITE32(MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_OFFSET,
++              MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_RNW_MASK | tmp);
++
++      /* wait for operation finished */
++      topaz_wait_for_register(dev_priv,
++              MTX_START +
++              MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_OFFSET,
++              MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK,
++              MTX_CORE_CR_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK);
++
++      /* read  */
++      MTX_READ32(MTX_CORE_CR_MTX_REGISTER_READ_WRITE_DATA_OFFSET,
++                 ret_val);
++
++      release_mtx_control_from_dash(dev_priv);
++}
++
++void get_mtx_control_from_dash(struct drm_psb_private *dev_priv)
++{
++      int debug_reg_slave_val;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      /* GetMTXControlFromDash */
++      TOPAZ_WRITE32(TOPAZ_CORE_CR_MTX_DEBUG_OFFSET,
++                    F_ENCODE(1, TOPAZ_CR_MTX_DBG_IS_SLAVE) |
++                    F_ENCODE(2, TOPAZ_CR_MTX_DBG_GPIO_OUT));
++      do {
++              TOPAZ_READ32(TOPAZ_CORE_CR_MTX_DEBUG_OFFSET,
++                           &debug_reg_slave_val);
++      } while ((debug_reg_slave_val & 0x18) != 0);
++
++      /* save access control */
++      TOPAZ_READ32(MTX_CORE_CR_MTX_RAM_ACCESS_CONTROL_OFFSET,
++                   &topaz_priv->topaz_dash_access_ctrl);
++}
++
++void release_mtx_control_from_dash(struct drm_psb_private *dev_priv)
++{
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      /* restore access control */
++      TOPAZ_WRITE32(MTX_CORE_CR_MTX_RAM_ACCESS_CONTROL_OFFSET,
++                    topaz_priv->topaz_dash_access_ctrl);
++
++      /* release bus */
++      TOPAZ_WRITE32(TOPAZ_CORE_CR_MTX_DEBUG_OFFSET,
++                    F_ENCODE(1, TOPAZ_CR_MTX_DBG_IS_SLAVE));
++}
++
++void topaz_mmu_hwsetup(struct drm_psb_private *dev_priv)
++{
++      uint32_t pd_addr = psb_get_default_pd_addr(dev_priv->mmu);
++
++      /* bypass all request while MMU is being configured */
++      TOPAZ_WRITE32(TOPAZ_CR_MMU_CONTROL0,
++                    F_ENCODE(1, TOPAZ_CR_MMU_BYPASS));
++
++      /* set MMU hardware at the page table directory */
++      PSB_DEBUG_GENERAL("TOPAZ: write PD phyaddr=0x%08x "
++                      "into MMU_DIR_LIST0/1\n", pd_addr);
++      TOPAZ_WRITE32(TOPAZ_CR_MMU_DIR_LIST_BASE(0), pd_addr);
++      TOPAZ_WRITE32(TOPAZ_CR_MMU_DIR_LIST_BASE(1), 0);
++
++      /* setup index register, all pointing to directory bank 0 */
++      TOPAZ_WRITE32(TOPAZ_CR_MMU_BANK_INDEX, 0);
++
++      /* now enable MMU access for all requestors */
++      TOPAZ_WRITE32(TOPAZ_CR_MMU_CONTROL0, 0);
++}
++
++void topaz_mmu_flushcache(struct drm_psb_private *dev_priv)
++{
++      uint32_t mmu_control;
++
++      if (!powermgmt_is_hw_on(dev_priv->dev->pdev, PSB_VIDEO_ENC_ISLAND))
++              return;
++
++#if 0
++      PSB_DEBUG_GENERAL("XXX: Only one PTD/PTE cache"
++                      " so flush using the master core\n");
++#endif
++      /* XXX: disable interrupt */
++
++      TOPAZ_READ32(TOPAZ_CR_MMU_CONTROL0, &mmu_control);
++      mmu_control |= F_ENCODE(1, TOPAZ_CR_MMU_INVALDC);
++      mmu_control |= F_ENCODE(1, TOPAZ_CR_MMU_FLUSH);
++
++#if 0
++      PSB_DEBUG_GENERAL("Set Invalid flag (this causes a flush with MMU\n"
++                 "still operating afterwards even if not cleared,\n"
++                 "but may want to replace with MMU_FLUSH?\n");
++#endif
++      TOPAZ_WRITE32(TOPAZ_CR_MMU_CONTROL0, mmu_control);
++
++      /* clear it */
++      mmu_control &= (~F_ENCODE(1, TOPAZ_CR_MMU_INVALDC));
++      mmu_control &= (~F_ENCODE(1, TOPAZ_CR_MMU_FLUSH));
++      TOPAZ_WRITE32(TOPAZ_CR_MMU_CONTROL0, mmu_control);
++}
++
++#if DEBUG_FUNCTION
++
++static int topaz_test_sync(struct drm_device *dev, uint32_t seq,
++                      uint32_t sync_seq)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++      uint32_t sync_cmd[3];
++      struct topaz_cmd_header *cmd_hdr;
++      uint32_t *sync_p = (uint32_t *)topaz_priv->topaz_sync_addr;
++      int count = 1000;
++      uint32_t clr_flag;
++
++      cmd_hdr = (struct topaz_cmd_header *)&sync_cmd[0];
++
++      /* reset sync area */
++      *sync_p = 0;
++
++      /* insert a SYNC command here */
++      cmd_hdr->id = MTX_CMDID_SYNC;
++      cmd_hdr->size = 3;
++      cmd_hdr->seq = seq;
++
++      sync_cmd[1] = topaz_priv->topaz_sync_offset;
++      sync_cmd[2] = sync_seq;
++
++      TOPAZ_BEGIN_CCB(dev_priv);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[0]);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[1]);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[2]);
++      TOPAZ_END_CCB(dev_priv, 1);
++
++      PSB_DEBUG_GENERAL("Topaz: Sent SYNC with cmd seq=0x%08x,"
++                      "sync_seq=0x%08x\n", seq, sync_seq);
++
++      while (count && *sync_p != sync_seq) {
++              DRM_UDELAY(100);
++              --count;
++      }
++      if ((count == 0) && (*sync_p != sync_seq)) {
++              DRM_ERROR("TOPAZ: wait sycn timeout, expect sync seq 0x%08x,"
++                      "actual 0x%08x\n", sync_seq, *sync_p);
++      }
++      PSB_DEBUG_GENERAL("TOPAZ: SYNC succeed, sync seq=0x%08x\n", *sync_p);
++      PSB_DEBUG_GENERAL("Topaz: after SYNC test, query IRQ and clear it\n");
++
++      clr_flag = lnc_topaz_queryirq(dev);
++      lnc_topaz_clearirq(dev, clr_flag);
++
++      return 0;
++}
++static int topaz_test_sync_tt_test(struct drm_device *dev,
++                                 uint32_t seq,
++                                 uint32_t sync_seq)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct ttm_bo_device *bdev = &dev_priv->bdev;
++      int ret;
++      bool is_iomem;
++      struct ttm_buffer_object *test_obj;
++      struct ttm_bo_kmap_obj test_kmap;
++      unsigned int *test_adr;
++      uint32_t sync_cmd[3];
++      int count = 1000;
++      unsigned long pfn;
++
++      ret = ttm_buffer_object_create(bdev, 4096,
++                                     ttm_bo_type_kernel,
++                                     TTM_PL_FLAG_TT | TTM_PL_FLAG_NO_EVICT,
++                                     0, 0, 0, NULL, &test_obj);
++      if (ret) {
++              DRM_ERROR("failed create test object buffer\n");
++              return -1;
++      }
++
++      ret = psb_mmu_virtual_to_pfn(psb_mmu_get_default_pd(dev_priv->mmu),
++                                   test_obj->offset, &pfn);
++      if (ret) {
++              DRM_ERROR("failed to get pfn from virtual\n");
++              return -1;
++      }
++
++      PSB_DEBUG_GENERAL("Topaz:offset %lx, pfn %lx\n", test_obj->offset, pfn);
++
++      ret = ttm_bo_kmap(test_obj, 0, test_obj->num_pages,
++                        &test_kmap);
++      if (ret) {
++              DRM_ERROR("failed map buffer\n");
++              return -1;
++      }
++      test_adr = ttm_kmap_obj_virtual(&test_kmap, &is_iomem);
++      *test_adr = 0xff55;
++      ttm_bo_kunmap(&test_kmap);
++
++      /* insert a SYNC command here */
++      sync_cmd[0] = (MTX_CMDID_SYNC << 1) | (3 << 8) |
++              (seq << 16);
++      sync_cmd[1] = test_obj->offset;
++      sync_cmd[2] = sync_seq;
++
++      TOPAZ_BEGIN_CCB(dev_priv);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[0]);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[1]);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[2]);
++      TOPAZ_END_CCB(dev_priv, 1);
++
++      ret = ttm_bo_kmap(test_obj, 0, test_obj->num_pages,
++                        &test_kmap);
++      if (ret) {
++              DRM_ERROR("failed map buffer\n");
++              return -1;
++      }
++      test_adr = ttm_kmap_obj_virtual(&test_kmap, &is_iomem);
++
++      while (count && *test_adr != sync_seq) {
++              DRM_UDELAY(100);
++              --count;
++      }
++      if ((count == 0) && (*test_adr != sync_seq)) {
++              DRM_ERROR("TOPAZ: wait sycn timeout (0x%08x),"
++                        "actual 0x%08x\n",
++                        sync_seq, *test_adr);
++      }
++      PSB_DEBUG_GENERAL("TOPAZ: SYNC done, seq=0x%08x\n", *test_adr);
++      ttm_bo_kunmap(&test_kmap);
++      ttm_bo_unref(&test_obj);
++
++      return 0;
++}
++
++static int topaz_test_sync_manual_alloc_page(struct drm_device *dev,
++                                           uint32_t seq,
++                                           uint32_t sync_seq,
++                                           uint32_t offset)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      int ret;
++      uint32_t sync_cmd[3];
++      int count = 1000;
++      unsigned long pfn;
++
++      struct page *p;
++      uint32_t *v;
++/*    uint32_t offset = 0xd0000000; */
++
++      p = alloc_page(GFP_DMA32);
++      if (!p) {
++              DRM_ERROR("Topaz:Failed allocating page\n");
++              return -1;
++      }
++
++      v = kmap(p);
++      memset(v, 0x67, PAGE_SIZE);
++      pfn = (offset >> PAGE_SHIFT);
++      kunmap(p);
++
++      ret = psb_mmu_insert_pages(psb_mmu_get_default_pd(dev_priv->mmu),
++                                 &p, pfn << PAGE_SHIFT, 1, 0, 0, 0);
++      if (ret) {
++              DRM_ERROR("Topaz:Failed inserting mmu page\n");
++              return -1;
++      }
++
++      /* insert a SYNC command here */
++      sync_cmd[0] = (MTX_CMDID_SYNC << 1) | (3 << 8) |
++              (0x5b << 16);
++      sync_cmd[1] = pfn << PAGE_SHIFT;
++      sync_cmd[2] = seq;
++
++      TOPAZ_BEGIN_CCB(dev_priv);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[0]);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[1]);
++      TOPAZ_OUT_CCB(dev_priv, sync_cmd[2]);
++      TOPAZ_END_CCB(dev_priv, 1);
++
++      v = kmap(p);
++      while (count && *v != sync_seq) {
++              DRM_UDELAY(100);
++              --count;
++      }
++      if ((count == 0) && (*v != sync_seq)) {
++              DRM_ERROR("TOPAZ: wait sycn timeout (0x%08x),"
++                        "actual 0x%08x\n",
++                        sync_seq, *v);
++      }
++      PSB_DEBUG_GENERAL("TOPAZ: SYNC done, seq=0x%08x\n", *v);
++      kunmap(p);
++
++      return 0;
++}
++
++static int topaz_test_null(struct drm_device *dev, uint32_t seq)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct topaz_cmd_header null_cmd;
++      uint32_t clr_flag;
++
++      /* XXX: here we finished firmware setup....
++       * using a NULL command to verify the
++       * correctness of firmware
++       */
++
++      null_cmd.id = MTX_CMDID_NULL;
++      null_cmd.size = 1;
++      null_cmd.seq = seq;
++
++      TOPAZ_BEGIN_CCB(dev_priv);
++      TOPAZ_OUT_CCB(dev_priv, *((uint32_t *)&null_cmd));
++      TOPAZ_END_CCB(dev_priv, 1);
++
++      DRM_UDELAY(1000); /* wait to finish */
++
++      PSB_DEBUG_GENERAL("Topaz: Sent NULL with sequence=0x%08x,"
++                      " got sequence=0x%08x (WB_seq=0x%08x,WB_roff=%d)\n",
++                      seq, CCB_CTRL_SEQ(dev_priv), WB_CCB_CTRL_SEQ(dev_priv),
++                      WB_CCB_CTRL_RINDEX(dev_priv));
++
++      PSB_DEBUG_GENERAL("Topaz: after NULL test, query IRQ and clear it\n");
++
++      clr_flag = lnc_topaz_queryirq(dev);
++      lnc_topaz_clearirq(dev, clr_flag);
++
++      return 0;
++}
++
++
++/*
++ * this function will test whether the mmu is correct:
++ * it get a drm_buffer_object and use CMD_SYNC to write
++ * certain value into this buffer.
++ */
++static void topaz_mmu_test(struct drm_device *dev, uint32_t sync_value)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++      unsigned long real_pfn;
++      int ret;
++
++      /* topaz_mmu_flush(dev); */
++      topaz_test_sync(dev, 0x55, sync_value);
++
++      ret = psb_mmu_virtual_to_pfn(psb_mmu_get_default_pd(dev_priv->mmu),
++                              topaz_priv->topaz_sync_offset, &real_pfn);
++      if (ret != 0) {
++              PSB_DEBUG_GENERAL("psb_mmu_virtual_to_pfn failed,exit\n");
++              return;
++      }
++      PSB_DEBUG_GENERAL("TOPAZ: issued SYNC command, "
++                      "BO offset=0x%08x (pfn=%lu), synch value=0x%08x\n",
++                      topaz_priv->topaz_sync_offset, real_pfn, sync_value);
++}
++
++void topaz_save_default_regs(struct drm_psb_private *dev_priv, uint32_t *data)
++{
++      int n;
++      int count;
++
++      count = sizeof(topaz_default_regs) / (sizeof(unsigned long) * 3);
++      for (n = 0; n < count; n++, ++data)
++              MM_READ32(topaz_default_regs[n][0],
++                         topaz_default_regs[n][1],
++                         data);
++
++}
++
++void topaz_restore_default_regs(struct drm_psb_private *dev_priv,
++                              uint32_t *data)
++{
++      int n;
++      int count;
++
++      count = sizeof(topaz_default_regs) / (sizeof(unsigned long) * 3);
++      for (n = 0; n < count; n++, ++data)
++              MM_WRITE32(topaz_default_regs[n][0],
++                         topaz_default_regs[n][1],
++                         *data);
++
++}
++
++#endif
++
++int lnc_topaz_restore_mtx_state(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *)dev->dev_private;
++      uint32_t reg_val;
++      uint32_t *mtx_reg_state;
++      int i;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      if (!topaz_priv->topaz_mtx_saved)
++              return -1;
++
++      if (topaz_priv->topaz_mtx_data_mem == NULL) {
++              PSB_DEBUG_GENERAL("TOPAZ: try to restore context without "
++                      "space allocated, return directly without restore\n");
++              return -1;
++      }
++
++      /* turn on mtx clocks */
++      MTX_READ32(TOPAZ_CR_TOPAZ_MAN_CLK_GATE, &reg_val);
++      MTX_WRITE32(TOPAZ_CR_TOPAZ_MAN_CLK_GATE,
++              reg_val & (~MASK_TOPAZ_CR_TOPAZ_MTX_MAN_CLK_GATE));
++
++      /* reset mtx */
++      /* FIXME: should use core_write??? */
++      MTX_WRITE32(MTX_CORE_CR_MTX_SOFT_RESET_OFFSET,
++              MTX_CORE_CR_MTX_SOFT_RESET_MTX_RESET_MASK);
++      DRM_UDELAY(6000);
++
++      topaz_mmu_hwsetup(dev_priv);
++      /* upload code, restore mtx data */
++      mtx_dma_write(dev);
++
++      mtx_reg_state = topaz_priv->topaz_mtx_reg_state;
++      /* restore register */
++      /* FIXME: conside to put read/write into one function */
++      /* Saves 8 Registers of D0 Bank  */
++      /* DoRe0, D0Ar6, D0Ar4, D0Ar2, D0FrT, D0.5, D0.6 and D0.7 */
++      for (i = 0; i < 8; i++) {
++              topaz_write_core_reg(dev_priv, 0x1 | (i<<4),
++                              *mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves 8 Registers of D1 Bank  */
++      /* D1Re0, D1Ar5, D1Ar3, D1Ar1, D1RtP, D1.5, D1.6 and D1.7 */
++      for (i = 0; i < 8; i++) {
++              topaz_write_core_reg(dev_priv, 0x2 | (i<<4),
++                              *mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves 4 Registers of A0 Bank  */
++      /* A0StP, A0FrP, A0.2 and A0.3 */
++      for (i = 0; i < 4; i++) {
++              topaz_write_core_reg(dev_priv, 0x3 | (i<<4),
++                              *mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves 4 Registers of A1 Bank  */
++      /* A1GbP, A1LbP, A1.2 and A1.3 */
++      for (i = 0; i < 4; i++) {
++              topaz_write_core_reg(dev_priv, 0x4 | (i<<4),
++                              *mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves PC and PCX  */
++      for (i = 0; i < 2; i++) {
++              topaz_write_core_reg(dev_priv, 0x5 | (i<<4),
++                              *mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves 8 Control Registers */
++      /* TXSTAT, TXMASK, TXSTATI, TXMASKI, TXPOLL, TXGPIOI, TXPOLLI,
++       * TXGPIOO */
++      for (i = 0; i < 8; i++) {
++              topaz_write_core_reg(dev_priv, 0x7 | (i<<4),
++                              *mtx_reg_state);
++              mtx_reg_state++;
++      }
++
++      /* turn on MTX */
++      MTX_WRITE32(MTX_CORE_CR_MTX_ENABLE_OFFSET,
++              MTX_CORE_CR_MTX_ENABLE_MTX_ENABLE_MASK);
++
++      topaz_priv->topaz_mtx_saved = 0;
++
++      return 0;
++}
++
++int lnc_topaz_save_mtx_state(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      uint32_t *mtx_reg_state;
++      int i;
++      struct topaz_codec_fw *cur_codec_fw;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      /* FIXME: make sure the topaz_mtx_data_mem is allocated */
++      if (topaz_priv->topaz_mtx_data_mem == NULL) {
++              PSB_DEBUG_GENERAL("TOPAZ: try to save context without space "
++                      "allocated, return directly without save\n");
++              return -1;
++      }
++      if (topaz_priv->topaz_fw_loaded == 0) {
++              PSB_DEBUG_GENERAL("TOPAZ: try to save context without firmware "
++                                "uploaded\n");
++              return -1;
++      }
++
++      topaz_wait_for_register(dev_priv,
++                              MTX_START + MTX_CORE_CR_MTX_TXRPT_OFFSET,
++                              TXRPT_WAITONKICK_VALUE,
++                              0xffffffff);
++
++      /* stop mtx */
++      MTX_WRITE32(MTX_CORE_CR_MTX_ENABLE_OFFSET,
++              MTX_CORE_CR_MTX_ENABLE_MTX_TOFF_MASK);
++
++      mtx_reg_state = topaz_priv->topaz_mtx_reg_state;
++
++      /* FIXME: conside to put read/write into one function */
++      /* Saves 8 Registers of D0 Bank  */
++      /* DoRe0, D0Ar6, D0Ar4, D0Ar2, D0FrT, D0.5, D0.6 and D0.7 */
++      for (i = 0; i < 8; i++) {
++              topaz_read_core_reg(dev_priv, 0x1 | (i<<4),
++                              mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves 8 Registers of D1 Bank  */
++      /* D1Re0, D1Ar5, D1Ar3, D1Ar1, D1RtP, D1.5, D1.6 and D1.7 */
++      for (i = 0; i < 8; i++) {
++              topaz_read_core_reg(dev_priv, 0x2 | (i<<4),
++                              mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves 4 Registers of A0 Bank  */
++      /* A0StP, A0FrP, A0.2 and A0.3 */
++      for (i = 0; i < 4; i++) {
++              topaz_read_core_reg(dev_priv, 0x3 | (i<<4),
++                              mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves 4 Registers of A1 Bank  */
++      /* A1GbP, A1LbP, A1.2 and A1.3 */
++      for (i = 0; i < 4; i++) {
++              topaz_read_core_reg(dev_priv, 0x4 | (i<<4),
++                              mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves PC and PCX  */
++      for (i = 0; i < 2; i++) {
++              topaz_read_core_reg(dev_priv, 0x5 | (i<<4),
++                              mtx_reg_state);
++              mtx_reg_state++;
++      }
++      /* Saves 8 Control Registers */
++      /* TXSTAT, TXMASK, TXSTATI, TXMASKI, TXPOLL, TXGPIOI, TXPOLLI,
++       * TXGPIOO */
++      for (i = 0; i < 8; i++) {
++              topaz_read_core_reg(dev_priv, 0x7 | (i<<4),
++                              mtx_reg_state);
++              mtx_reg_state++;
++      }
++
++      /* save mtx data memory */
++      cur_codec_fw = &topaz_priv->topaz_fw[topaz_priv->topaz_cur_codec];
++
++      mtx_dma_read(dev, cur_codec_fw->data_location + 0x80900000 - 0x82880000,
++              topaz_priv->cur_mtx_data_size);
++
++      /* turn off mtx clocks */
++      MTX_WRITE32(TOPAZ_CR_TOPAZ_MAN_CLK_GATE,
++              MASK_TOPAZ_CR_TOPAZ_MTX_MAN_CLK_GATE);
++
++      topaz_priv->topaz_mtx_saved = 1;
++
++      return 0;
++}
++
++void mtx_dma_read(struct drm_device *dev, uint32_t source_addr, uint32_t size)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct ttm_buffer_object *target;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      /* setup mtx DMAC registers to do transfer */
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAA, source_addr);
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAC,
++              F_ENCODE(2, MTX_BURSTSIZE) |
++              F_ENCODE(1, MTX_RNW) |
++              F_ENCODE(1, MTX_ENABLE) |
++              F_ENCODE(size, MTX_LENGTH));
++
++      /* give the DMAC access to the host memory via BIF */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 1);
++
++      target = topaz_priv->topaz_mtx_data_mem;
++      /* transfert the data */
++      /* FIXME: size is meaured by bytes? */
++      topaz_dma_transfer(dev_priv, 0, target->offset, 0,
++                      MTX_CR_MTX_SYSC_CDMAT,
++                      size, 0, 1);
++
++      /* wait for it transfer */
++      topaz_wait_for_register(dev_priv, IMG_SOC_DMAC_IRQ_STAT(0) + DMAC_START,
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN),
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN));
++      /* clear interrupt */
++      DMAC_WRITE32(IMG_SOC_DMAC_IRQ_STAT(0), 0);
++      /* give access back to topaz core */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 0);
++}
++
++void dmac_transfer(struct drm_device *dev, uint32_t channel, uint32_t dst_addr,
++              uint32_t soc_addr, uint32_t bytes_num,
++              int increment, int rnw)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      uint32_t count_reg;
++      uint32_t irq_state;
++
++      /* check no transfer is in progress */
++      DMAC_READ32(IMG_SOC_DMAC_COUNT(channel), &count_reg);
++      if (0 != (count_reg & (MASK_IMG_SOC_EN | MASK_IMG_SOC_LIST_EN))) {
++              DRM_ERROR("TOPAZ: there's transfer in progress when wanna "
++                      "save mtx data\n");
++              /* FIXME: how to handle this error */
++              return;
++      }
++
++      /* no hold off period */
++      DMAC_WRITE32(IMG_SOC_DMAC_PER_HOLD(channel), 0);
++      /* cleare irq state */
++      DMAC_WRITE32(IMG_SOC_DMAC_IRQ_STAT(channel), 0);
++      DMAC_READ32(IMG_SOC_DMAC_IRQ_STAT(channel), &irq_state);
++      if (0 != irq_state) {
++              DRM_ERROR("TOPAZ: there's irq cann't clear\n");
++              return;
++      }
++
++      DMAC_WRITE32(IMG_SOC_DMAC_SETUP(channel), dst_addr);
++      count_reg = DMAC_VALUE_COUNT(DMAC_BSWAP_NO_SWAP,
++                              DMAC_PWIDTH_32_BIT, rnw,
++                              DMAC_PWIDTH_32_BIT, bytes_num);
++      /* generate an interrupt at end of transfer */
++      count_reg |= MASK_IMG_SOC_TRANSFER_IEN;
++      count_reg |= F_ENCODE(rnw, IMG_SOC_DIR);
++      DMAC_WRITE32(IMG_SOC_DMAC_COUNT(channel), count_reg);
++
++      DMAC_WRITE32(IMG_SOC_DMAC_PERIPH(channel),
++              DMAC_VALUE_PERIPH_PARAM(DMAC_ACC_DEL_0, increment,
++                                      DMAC_BURST_2));
++      DMAC_WRITE32(IMG_SOC_DMAC_PERIPHERAL_ADDR(channel), soc_addr);
++
++      /* Finally, rewrite the count register with the enable
++       * bit set to kick off the transfer */
++      DMAC_WRITE32(IMG_SOC_DMAC_COUNT(channel),
++              count_reg | MASK_IMG_SOC_EN);
++}
++
++void mtx_dma_write(struct drm_device *dev)
++{
++      struct topaz_codec_fw *cur_codec_fw;
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      cur_codec_fw = &topaz_priv->topaz_fw[topaz_priv->topaz_cur_codec];
++
++      /* upload code */
++      /* setup mtx DMAC registers to recieve transfer */
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAA, 0x80900000);
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAC,
++              F_ENCODE(2, MTX_BURSTSIZE) |
++              F_ENCODE(0, MTX_RNW) |
++              F_ENCODE(1, MTX_ENABLE) |
++              F_ENCODE(cur_codec_fw->text_size / 4, MTX_LENGTH));
++
++      /* give DMAC access to host memory */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 1);
++
++      /* transfer code */
++      topaz_dma_transfer(dev_priv, 0, cur_codec_fw->text->offset, 0,
++              MTX_CR_MTX_SYSC_CDMAT, cur_codec_fw->text_size / 4,
++              0, 0);
++      /* wait finished */
++      topaz_wait_for_register(dev_priv, IMG_SOC_DMAC_IRQ_STAT(0) + DMAC_START,
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN),
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN));
++      /* clear interrupt */
++      DMAC_WRITE32(IMG_SOC_DMAC_IRQ_STAT(0), 0);
++
++      /* setup mtx start recieving data */
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAA, 0x80900000 +
++              (cur_codec_fw->data_location) - 0x82880000);
++
++      MTX_WRITE32(MTX_CR_MTX_SYSC_CDMAC,
++              F_ENCODE(2, MTX_BURSTSIZE) |
++              F_ENCODE(0, MTX_RNW) |
++              F_ENCODE(1, MTX_ENABLE) |
++              F_ENCODE(topaz_priv->cur_mtx_data_size, MTX_LENGTH));
++
++      /* give DMAC access to host memory */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 1);
++
++      /* transfer data */
++      topaz_dma_transfer(dev_priv, 0, topaz_priv->topaz_mtx_data_mem->offset,
++                      0, MTX_CR_MTX_SYSC_CDMAT,
++                      topaz_priv->cur_mtx_data_size,
++                      0, 0);
++      /* wait finished */
++      topaz_wait_for_register(dev_priv, IMG_SOC_DMAC_IRQ_STAT(0) + DMAC_START,
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN),
++                              F_ENCODE(1, IMG_SOC_TRANSFER_FIN));
++      /* clear interrupt */
++      DMAC_WRITE32(IMG_SOC_DMAC_IRQ_STAT(0), 0);
++
++      /* give access back to Topaz Core */
++      TOPAZ_WRITE32(TOPAZ_CR_IMG_TOPAZ_DMAC_MODE, 0);
++}
++
+diff --git a/drivers/gpu/drm/psb/psb_bl.c b/drivers/gpu/drm/psb/psb_bl.c
+new file mode 100644
+index 0000000..2c723f4
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_bl.c
+@@ -0,0 +1,232 @@
++/*
++ *  psb backlight using HAL
++ *
++ *  Copyright (c) 2009 Eric Knopp
++ *
++ *  This program is free software; you can redistribute it and/or modify
++ *  it under the terms of the GNU General Public License version 2 as
++ *  published by the Free Software Foundation.
++ */
++
++#include <linux/backlight.h>
++#include "psb_drv.h"
++#include "psb_intel_reg.h"
++#include "psb_intel_drv.h"
++#include "psb_intel_bios.h"
++#include "psb_powermgmt.h"
++
++#define MRST_BLC_MAX_PWM_REG_FREQ         0xFFFF
++#define BLC_PWM_PRECISION_FACTOR 100  /* 10000000 */
++#define BLC_PWM_FREQ_CALC_CONSTANT 32
++#define MHz 1000000
++#define BRIGHTNESS_MIN_LEVEL 1
++#define BRIGHTNESS_MAX_LEVEL 100
++#define BRIGHTNESS_MASK       0xFF
++#define BLC_POLARITY_NORMAL 0
++#define BLC_POLARITY_INVERSE 1
++#define BLC_ADJUSTMENT_MAX 100
++
++#define PSB_BLC_PWM_PRECISION_FACTOR    10
++#define PSB_BLC_MAX_PWM_REG_FREQ        0xFFFE
++#define PSB_BLC_MIN_PWM_REG_FREQ        0x2
++
++#define PSB_BACKLIGHT_PWM_POLARITY_BIT_CLEAR (0xFFFE)
++#define PSB_BACKLIGHT_PWM_CTL_SHIFT   (16)
++
++static int psb_brightness;
++static int blc_pol;
++static struct backlight_device *psb_backlight_device;
++static u8 blc_brightnesscmd;
++static u8 blc_type;
++
++int psb_set_brightness(struct backlight_device *bd)
++{
++      u32 blc_pwm_ctl;
++      u32 max_pwm_blc;
++
++      struct drm_device *dev =
++              (struct drm_device *)psb_backlight_device->priv;
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *) dev->dev_private;
++
++      int level = bd->props.brightness;
++      
++      DRM_DEBUG("backlight level set to %d\n", level);
++
++      /* Perform value bounds checking */
++      if (level < BRIGHTNESS_MIN_LEVEL)
++              level = BRIGHTNESS_MIN_LEVEL;
++
++      if(IS_POULSBO(dev)) {
++              psb_intel_lvds_set_brightness(dev, level);
++              psb_brightness = level;
++              return 0;
++      }
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {   
++              /* Calculate and set the brightness value */
++              max_pwm_blc = REG_READ(BLC_PWM_CTL) >>
++                      MRST_BACKLIGHT_MODULATION_FREQ_SHIFT;
++              blc_pwm_ctl = level * max_pwm_blc / BRIGHTNESS_MAX_LEVEL;
++      
++              /* Adjust the backlight level with the percent in
++              * dev_priv->blc_adj1;
++              */
++              blc_pwm_ctl = blc_pwm_ctl * dev_priv->blc_adj1;
++              blc_pwm_ctl = blc_pwm_ctl / BLC_ADJUSTMENT_MAX;
++      
++              if (blc_pol == BLC_POLARITY_INVERSE)
++                      blc_pwm_ctl = max_pwm_blc - blc_pwm_ctl;
++      
++              /* force PWM bit on */
++              REG_WRITE(BLC_PWM_CTL2, (0x80000000 | REG_READ(BLC_PWM_CTL2)));
++              REG_WRITE(BLC_PWM_CTL,
++                      (max_pwm_blc << MRST_BACKLIGHT_MODULATION_FREQ_SHIFT) |
++                      blc_pwm_ctl);
++      
++      /*      printk("***backlight brightness = %i\n", level); */
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++
++      /* cache the brightness for later use */
++      psb_brightness = level;
++      return 0;
++}
++
++int psb_get_brightness(struct backlight_device *bd)
++{
++      /* return locally cached var instead of HW read (due to DPST etc.) */
++      return psb_brightness;
++}
++
++struct backlight_ops psb_ops = {
++      .get_brightness = psb_get_brightness,
++      .update_status  = psb_set_brightness,
++};
++
++int psb_backlight_init(struct drm_device *dev)
++{
++#ifdef CONFIG_BACKLIGHT_CLASS_DEVICE
++      unsigned long CoreClock;
++      // u32 bl_max_freq;
++      // unsigned long value;
++      u16 bl_max_freq;
++      uint32_t value;
++      uint32_t clock;
++      uint32_t blc_pwm_precision_factor;
++      
++      struct pci_dev * pci_root = pci_get_bus_and_slot(0, 0); 
++
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      psb_backlight_device = backlight_device_register("psb-bl",
++              NULL, NULL, &psb_ops);
++      if (IS_ERR(psb_backlight_device))
++              return PTR_ERR(psb_backlight_device);
++
++      psb_backlight_device->priv = dev;
++
++      if(IS_MRST(dev)) {
++              /* HACK HACK HACK */
++              dev_priv->blc_adj1 = BLC_ADJUSTMENT_MAX;
++
++              bl_max_freq = 256; /* this needs to come from VBT when available */
++              blc_pol = BLC_POLARITY_NORMAL; /* this needs to be set elsewhere */
++              blc_pwm_precision_factor = BLC_PWM_PRECISION_FACTOR;
++
++              if (dev_priv->sku_83)
++                      CoreClock = 166;
++              else if (dev_priv->sku_100)
++                      CoreClock = 200;
++              else if (dev_priv->sku_100L)
++                      CoreClock = 100;
++              else
++                      return 1;
++      } else {
++              /* get bl_max_freq and pol from dev_priv*/
++              if(!dev_priv->lvds_bl){
++                      DRM_ERROR("Has no valid LVDS backlight info\n");
++                      return 1;
++              }               
++              bl_max_freq = dev_priv->lvds_bl->freq;
++              blc_pol = dev_priv->lvds_bl->pol;
++              blc_pwm_precision_factor = PSB_BLC_PWM_PRECISION_FACTOR;
++              blc_brightnesscmd = dev_priv->lvds_bl->brightnesscmd;
++              blc_type = dev_priv->lvds_bl->type;
++
++              //pci_write_config_dword(pci_root, 0xD4, 0x00C32004);
++              //pci_write_config_dword(pci_root, 0xD0, 0xE0033000);
++              
++              pci_write_config_dword(pci_root, 0xD0, 0xD0050300);
++              pci_read_config_dword(pci_root, 0xD4, &clock);
++              
++              switch(clock & 0x07) {
++                      case 0:
++                              CoreClock = 100;
++                              break;
++                      case 1:
++                              CoreClock = 133;
++                              break;
++                      case 2:
++                              CoreClock = 150;
++                              break;
++                      case 3:
++                              CoreClock = 178;
++                              break;
++                      case 4:
++                              CoreClock = 200;
++                              break;
++                      case 5:
++                      case 6:
++                      case 7:
++                              CoreClock = 266;
++                      default:
++                              return 1;
++              }
++      }/*end if(IS_MRST(dev))*/
++
++      value = (CoreClock * MHz) / BLC_PWM_FREQ_CALC_CONSTANT;
++      value *= blc_pwm_precision_factor;
++      value /= bl_max_freq;
++      value /= blc_pwm_precision_factor;
++      
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              if(IS_MRST(dev)) {
++                      if (value > (unsigned long long)MRST_BLC_MAX_PWM_REG_FREQ)
++                              return 2;
++                      else {
++                              REG_WRITE(BLC_PWM_CTL2, (0x80000000 | REG_READ(BLC_PWM_CTL2)));
++                              REG_WRITE(BLC_PWM_CTL, value |
++                              (value << MRST_BACKLIGHT_MODULATION_FREQ_SHIFT));
++                      }
++              } else {
++                      if (value > (unsigned long long)PSB_BLC_MAX_PWM_REG_FREQ ||
++                          value < (unsigned long long)PSB_BLC_MIN_PWM_REG_FREQ)
++                              return 2;
++                      else {
++                              value &= PSB_BACKLIGHT_PWM_POLARITY_BIT_CLEAR;
++                              REG_WRITE(BLC_PWM_CTL,
++                                      (value << PSB_BACKLIGHT_PWM_CTL_SHIFT) |
++                                      (value));
++                      }
++              } /*end if(IS_MRST(dev))*/
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++
++      psb_backlight_device->props.brightness = BRIGHTNESS_MAX_LEVEL;
++      psb_backlight_device->props.max_brightness = BRIGHTNESS_MAX_LEVEL;
++      backlight_update_status(psb_backlight_device);
++#endif
++      return 0;
++}
++
++void psb_backlight_exit(void)
++{
++#ifdef CONFIG_BACKLIGHT_CLASS_DEVICE
++      psb_backlight_device->props.brightness = 0;
++      backlight_update_status(psb_backlight_device);
++      backlight_device_unregister(psb_backlight_device);
++#endif
++      return;
++}
+diff --git a/drivers/gpu/drm/psb/psb_buffer.c b/drivers/gpu/drm/psb/psb_buffer.c
+new file mode 100644
+index 0000000..cb25bde
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_buffer.c
+@@ -0,0 +1,519 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics.com>
++ */
++#include "ttm/ttm_placement_common.h"
++#include "ttm/ttm_execbuf_util.h"
++#include "ttm/ttm_fence_api.h"
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "psb_schedule.h"
++
++#define DRM_MEM_TTM       26
++
++struct drm_psb_ttm_backend {
++      struct ttm_backend base;
++      struct page **pages;
++      unsigned int desired_tile_stride;
++      unsigned int hw_tile_stride;
++      int mem_type;
++      unsigned long offset;
++      unsigned long num_pages;
++};
++
++/*
++ * Poulsbo GPU virtual space looks like this
++ * (We currently use only one MMU context).
++ *
++ * gatt_start = Start of GATT aperture in bus space.
++ * stolen_end = End of GATT populated by stolen memory in bus space.
++ * gatt_end   = End of GATT
++ * twod_end   = MIN(gatt_start + 256_MEM, gatt_end)
++ *
++ * 0x00000000 -> 0x10000000 Temporary mapping space for tiling-
++ * and copy operations.
++ *                          This space is not managed and is protected by the
++ *                          temp_mem mutex.
++ *
++ * 0x10000000 -> 0x20000000 DRM_PSB_MEM_KERNEL For kernel buffers.
++ *
++ * 0x20000000 -> gatt_start DRM_PSB_MEM_MMU    For generic MMU-only use.
++ *
++ * gatt_start -> stolen_end TTM_PL_VRAM    Pre-populated GATT pages.
++ *
++ * stolen_end -> twod_end   TTM_PL_TT      GATT memory usable by 2D engine.
++ *
++ * twod_end -> gatt_end     DRM_BO_MEM_APER    GATT memory not
++ * usable by 2D engine.
++ *
++ * gatt_end ->   0xffffffff Currently unused.
++ */
++
++static int psb_init_mem_type(struct ttm_bo_device *bdev, uint32_t type,
++                           struct ttm_mem_type_manager *man)
++{
++
++      struct drm_psb_private *dev_priv =
++          container_of(bdev, struct drm_psb_private, bdev);
++      struct psb_gtt *pg = dev_priv->pg;
++
++      switch (type) {
++      case TTM_PL_SYSTEM:
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE;
++              man->available_caching = TTM_PL_FLAG_CACHED |
++                  TTM_PL_FLAG_UNCACHED | TTM_PL_FLAG_WC;
++              man->default_caching = TTM_PL_FLAG_CACHED;
++              break;
++      case DRM_PSB_MEM_KERNEL:
++              man->io_offset = 0x00000000;
++              man->io_size = 0x00000000;
++              man->io_addr = NULL;
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_CMA;
++              man->gpu_offset = PSB_MEM_KERNEL_START;
++              man->available_caching = TTM_PL_FLAG_CACHED |
++                  TTM_PL_FLAG_UNCACHED | TTM_PL_FLAG_WC;
++              man->default_caching = TTM_PL_FLAG_WC;
++              break;
++      case DRM_PSB_MEM_MMU:
++              man->io_offset = 0x00000000;
++              man->io_size = 0x00000000;
++              man->io_addr = NULL;
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_CMA;
++              man->gpu_offset = PSB_MEM_MMU_START;
++              man->available_caching = TTM_PL_FLAG_CACHED |
++                  TTM_PL_FLAG_UNCACHED | TTM_PL_FLAG_WC;
++              man->default_caching = TTM_PL_FLAG_WC;
++              break;
++      case DRM_PSB_MEM_PDS:
++              man->io_offset = 0x00000000;
++              man->io_size = 0x00000000;
++              man->io_addr = NULL;
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_CMA;
++              man->gpu_offset = PSB_MEM_PDS_START;
++              man->available_caching = TTM_PL_FLAG_CACHED |
++                  TTM_PL_FLAG_UNCACHED | TTM_PL_FLAG_WC;
++              man->default_caching = TTM_PL_FLAG_WC;
++              break;
++      case DRM_PSB_MEM_RASTGEOM:
++              man->io_offset = 0x00000000;
++              man->io_size = 0x00000000;
++              man->io_addr = NULL;
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_CMA;
++              man->gpu_offset = PSB_MEM_RASTGEOM_START;
++              man->available_caching = TTM_PL_FLAG_CACHED |
++                  TTM_PL_FLAG_UNCACHED | TTM_PL_FLAG_WC;
++              man->default_caching = TTM_PL_FLAG_WC;
++              break;
++      case TTM_PL_VRAM:
++              man->io_addr = NULL;
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_FIXED |
++                  TTM_MEMTYPE_FLAG_NEEDS_IOREMAP;
++#ifdef PSB_WORKING_HOST_MMU_ACCESS
++              man->io_offset = pg->gatt_start;
++              man->io_size = pg->gatt_pages << PAGE_SHIFT;
++#else
++              man->io_offset = pg->stolen_base;
++              man->io_size = pg->vram_stolen_size;
++#endif
++              man->gpu_offset = pg->gatt_start;
++              man->available_caching = TTM_PL_FLAG_UNCACHED |
++                  TTM_PL_FLAG_WC;
++              man->default_caching = TTM_PL_FLAG_WC;
++              break;
++      case TTM_PL_CI:
++              man->io_addr = NULL;
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                      TTM_MEMTYPE_FLAG_FIXED |
++                      TTM_MEMTYPE_FLAG_NEEDS_IOREMAP;
++              man->io_offset = dev_priv->ci_region_start;
++              man->io_size = pg->ci_stolen_size;
++              man->gpu_offset = pg->gatt_start - pg->ci_stolen_size;
++              man->available_caching = TTM_PL_FLAG_UNCACHED;
++              man->default_caching = TTM_PL_FLAG_UNCACHED;
++              break;
++      case TTM_PL_RAR:        /* Unmappable RAR memory */
++              man->io_offset = dev_priv->rar_region_start;
++              man->io_size = pg->rar_stolen_size;
++              man->io_addr = NULL;
++              man->flags = TTM_MEMTYPE_FLAG_FIXED;
++              man->available_caching = TTM_PL_FLAG_UNCACHED;
++              man->default_caching = TTM_PL_FLAG_UNCACHED;
++              man->gpu_offset = pg->gatt_start + pg->vram_stolen_size;
++              break;
++      case TTM_PL_TT: /* Mappable GATT memory */
++              man->io_offset = pg->gatt_start;
++              man->io_size = pg->gatt_pages << PAGE_SHIFT;
++              man->io_addr = NULL;
++#ifdef PSB_WORKING_HOST_MMU_ACCESS
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_NEEDS_IOREMAP;
++#else
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_CMA;
++#endif
++              man->available_caching = TTM_PL_FLAG_CACHED |
++                  TTM_PL_FLAG_UNCACHED | TTM_PL_FLAG_WC;
++              man->default_caching = TTM_PL_FLAG_WC;
++              man->gpu_offset = pg->gatt_start;
++              break;
++      case DRM_PSB_MEM_APER:  /*MMU memory. Mappable. Not usable for 2D. */
++              man->io_offset = pg->gatt_start;
++              man->io_size = pg->gatt_pages << PAGE_SHIFT;
++              man->io_addr = NULL;
++#ifdef PSB_WORKING_HOST_MMU_ACCESS
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_NEEDS_IOREMAP;
++#else
++              man->flags = TTM_MEMTYPE_FLAG_MAPPABLE |
++                  TTM_MEMTYPE_FLAG_CMA;
++#endif
++              man->gpu_offset = pg->gatt_start;
++              man->available_caching = TTM_PL_FLAG_CACHED |
++                  TTM_PL_FLAG_UNCACHED | TTM_PL_FLAG_WC;
++              man->default_caching = TTM_PL_FLAG_WC;
++              break;
++      default:
++              DRM_ERROR("Unsupported memory type %u\n", (unsigned) type);
++              return -EINVAL;
++      }
++      return 0;
++}
++
++static uint32_t psb_evict_mask(struct ttm_buffer_object *bo)
++{
++      uint32_t cur_placement = bo->mem.flags & ~TTM_PL_MASK_MEM;
++
++
++      switch (bo->mem.mem_type) {
++      case TTM_PL_VRAM:
++              if (bo->mem.proposed_flags & TTM_PL_FLAG_TT)
++                      return cur_placement | TTM_PL_FLAG_TT;
++              else
++                      return cur_placement | TTM_PL_FLAG_SYSTEM;
++      default:
++              return cur_placement | TTM_PL_FLAG_SYSTEM;
++      }
++}
++
++static int psb_invalidate_caches(struct ttm_bo_device *bdev,
++                               uint32_t placement)
++{
++      return 0;
++}
++
++static int psb_move_blit(struct ttm_buffer_object *bo,
++                       bool evict, bool no_wait,
++                       struct ttm_mem_reg *new_mem)
++{
++      struct drm_psb_private *dev_priv =
++          container_of(bo->bdev, struct drm_psb_private, bdev);
++      struct drm_device *dev = dev_priv->dev;
++      struct ttm_mem_reg *old_mem = &bo->mem;
++      struct ttm_fence_object *fence;
++      int dir = 0;
++      int ret;
++
++      if ((old_mem->mem_type == new_mem->mem_type) &&
++          (new_mem->mm_node->start <
++           old_mem->mm_node->start + old_mem->mm_node->size)) {
++              dir = 1;
++      }
++
++      psb_emit_2d_copy_blit(dev,
++                            old_mem->mm_node->start << PAGE_SHIFT,
++                            new_mem->mm_node->start << PAGE_SHIFT,
++                            new_mem->num_pages, dir);
++
++      ret = ttm_fence_object_create(&dev_priv->fdev, 0,
++                                    _PSB_FENCE_TYPE_EXE,
++                                    TTM_FENCE_FLAG_EMIT,
++                                    &fence);
++      if (unlikely(ret != 0)) {
++              psb_idle_2d(dev);
++              if (fence)
++                      ttm_fence_object_unref(&fence);
++      }
++
++      ret = ttm_bo_move_accel_cleanup(bo, (void *) fence,
++                                      (void *) (unsigned long)
++                                      _PSB_FENCE_TYPE_EXE,
++                                      evict, no_wait, new_mem);
++      if (fence)
++              ttm_fence_object_unref(&fence);
++      return ret;
++}
++
++/*
++ * Flip destination ttm into GATT,
++ * then blit and subsequently move out again.
++ */
++
++static int psb_move_flip(struct ttm_buffer_object *bo,
++                       bool evict, bool interruptible, bool no_wait,
++                       struct ttm_mem_reg *new_mem)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_mem_reg tmp_mem;
++      int ret;
++
++      tmp_mem = *new_mem;
++      tmp_mem.mm_node = NULL;
++      tmp_mem.proposed_flags = TTM_PL_FLAG_TT;
++
++      ret = ttm_bo_mem_space(bo, &tmp_mem, interruptible, no_wait);
++      if (ret)
++              return ret;
++      ret = ttm_tt_bind(bo->ttm, &tmp_mem);
++      if (ret)
++              goto out_cleanup;
++      ret = psb_move_blit(bo, true, no_wait, &tmp_mem);
++      if (ret)
++              goto out_cleanup;
++
++      ret = ttm_bo_move_ttm(bo, evict, no_wait, new_mem);
++out_cleanup:
++      if (tmp_mem.mm_node) {
++              spin_lock(&bdev->lru_lock);
++              drm_mm_put_block(tmp_mem.mm_node);
++              tmp_mem.mm_node = NULL;
++              spin_unlock(&bdev->lru_lock);
++      }
++      return ret;
++}
++
++static int psb_move(struct ttm_buffer_object *bo,
++                  bool evict, bool interruptible,
++                  bool no_wait, struct ttm_mem_reg *new_mem)
++{
++      struct ttm_mem_reg *old_mem = &bo->mem;
++
++      if ((old_mem->mem_type == TTM_PL_RAR) ||
++          (new_mem->mem_type == TTM_PL_RAR)) {
++              ttm_bo_free_old_node(bo);
++              *old_mem = *new_mem;
++      } else if (old_mem->mem_type == TTM_PL_SYSTEM) {
++              return ttm_bo_move_memcpy(bo, evict, no_wait, new_mem);
++      } else if (new_mem->mem_type == TTM_PL_SYSTEM) {
++              int ret = psb_move_flip(bo, evict, interruptible,
++                                      no_wait, new_mem);
++              if (unlikely(ret != 0)) {
++                      if (ret == -ERESTART)
++                              return ret;
++                      else
++                              return ttm_bo_move_memcpy(bo, evict, no_wait,
++                                                        new_mem);
++              }
++      } else {
++              if (psb_move_blit(bo, evict, no_wait, new_mem))
++                      return ttm_bo_move_memcpy(bo, evict, no_wait,
++                                                new_mem);
++      }
++      return 0;
++}
++
++static int drm_psb_tbe_populate(struct ttm_backend *backend,
++                              unsigned long num_pages,
++                              struct page **pages,
++                              struct page *dummy_read_page)
++{
++      struct drm_psb_ttm_backend *psb_be =
++          container_of(backend, struct drm_psb_ttm_backend, base);
++
++      psb_be->pages = pages;
++      return 0;
++}
++
++static int drm_psb_tbe_unbind(struct ttm_backend *backend)
++{
++      struct ttm_bo_device *bdev = backend->bdev;
++      struct drm_psb_private *dev_priv =
++          container_of(bdev, struct drm_psb_private, bdev);
++      struct drm_psb_ttm_backend *psb_be =
++          container_of(backend, struct drm_psb_ttm_backend, base);
++      struct psb_mmu_pd *pd = psb_mmu_get_default_pd(dev_priv->mmu);
++      struct ttm_mem_type_manager *man = &bdev->man[psb_be->mem_type];
++
++      PSB_DEBUG_RENDER("MMU unbind.\n");
++
++      if (psb_be->mem_type == TTM_PL_TT) {
++              uint32_t gatt_p_offset =
++                  (psb_be->offset - man->gpu_offset) >> PAGE_SHIFT;
++
++              (void) psb_gtt_remove_pages(dev_priv->pg, gatt_p_offset,
++                                          psb_be->num_pages,
++                                          psb_be->desired_tile_stride,
++                                          psb_be->hw_tile_stride);
++      }
++
++      psb_mmu_remove_pages(pd, psb_be->offset,
++                           psb_be->num_pages,
++                           psb_be->desired_tile_stride,
++                           psb_be->hw_tile_stride);
++
++      return 0;
++}
++
++static int drm_psb_tbe_bind(struct ttm_backend *backend,
++                          struct ttm_mem_reg *bo_mem)
++{
++      struct ttm_bo_device *bdev = backend->bdev;
++      struct drm_psb_private *dev_priv =
++          container_of(bdev, struct drm_psb_private, bdev);
++      struct drm_psb_ttm_backend *psb_be =
++          container_of(backend, struct drm_psb_ttm_backend, base);
++      struct psb_mmu_pd *pd = psb_mmu_get_default_pd(dev_priv->mmu);
++      struct ttm_mem_type_manager *man = &bdev->man[bo_mem->mem_type];
++      int type;
++      int ret = 0;
++
++      psb_be->mem_type = bo_mem->mem_type;
++      psb_be->num_pages = bo_mem->num_pages;
++      psb_be->desired_tile_stride = 0;
++      psb_be->hw_tile_stride = 0;
++      psb_be->offset = (bo_mem->mm_node->start << PAGE_SHIFT) +
++          man->gpu_offset;
++
++      type =
++          (bo_mem->
++           flags & TTM_PL_FLAG_CACHED) ? PSB_MMU_CACHED_MEMORY : 0;
++
++      PSB_DEBUG_RENDER("MMU bind.\n");
++      if (psb_be->mem_type == TTM_PL_TT) {
++              uint32_t gatt_p_offset =
++                  (psb_be->offset - man->gpu_offset) >> PAGE_SHIFT;
++
++              ret = psb_gtt_insert_pages(dev_priv->pg, psb_be->pages,
++                                         gatt_p_offset,
++                                         psb_be->num_pages,
++                                         psb_be->desired_tile_stride,
++                                         psb_be->hw_tile_stride, type);
++      }
++
++      ret = psb_mmu_insert_pages(pd, psb_be->pages,
++                                 psb_be->offset, psb_be->num_pages,
++                                 psb_be->desired_tile_stride,
++                                 psb_be->hw_tile_stride, type);
++      if (ret)
++              goto out_err;
++
++      return 0;
++out_err:
++      drm_psb_tbe_unbind(backend);
++      return ret;
++
++}
++
++static void drm_psb_tbe_clear(struct ttm_backend *backend)
++{
++      struct drm_psb_ttm_backend *psb_be =
++          container_of(backend, struct drm_psb_ttm_backend, base);
++
++      psb_be->pages = NULL;
++      return;
++}
++
++static void drm_psb_tbe_destroy(struct ttm_backend *backend)
++{
++      struct drm_psb_ttm_backend *psb_be =
++          container_of(backend, struct drm_psb_ttm_backend, base);
++
++      if (backend)
++              kfree(psb_be);
++}
++
++static struct ttm_backend_func psb_ttm_backend = {
++      .populate = drm_psb_tbe_populate,
++      .clear = drm_psb_tbe_clear,
++      .bind = drm_psb_tbe_bind,
++      .unbind = drm_psb_tbe_unbind,
++      .destroy = drm_psb_tbe_destroy,
++};
++
++static struct ttm_backend *drm_psb_tbe_init(struct ttm_bo_device *bdev)
++{
++      struct drm_psb_ttm_backend *psb_be;
++
++      psb_be = kzalloc(sizeof(*psb_be), GFP_KERNEL);
++      if (!psb_be)
++              return NULL;
++      psb_be->pages = NULL;
++      psb_be->base.func = &psb_ttm_backend;
++      psb_be->base.bdev = bdev;
++      return &psb_be->base;
++}
++
++/*
++ * Use this memory type priority if no eviction is needed.
++ */
++static uint32_t psb_mem_prios[] = {
++      TTM_PL_CI,
++      TTM_PL_RAR,
++      TTM_PL_VRAM,
++      TTM_PL_TT,
++      DRM_PSB_MEM_KERNEL,
++      DRM_PSB_MEM_MMU,
++      DRM_PSB_MEM_RASTGEOM,
++      DRM_PSB_MEM_PDS,
++      DRM_PSB_MEM_APER,
++      TTM_PL_SYSTEM
++};
++
++/*
++ * Use this memory type priority if need to evict.
++ */
++static uint32_t psb_busy_prios[] = {
++      TTM_PL_TT,
++      TTM_PL_VRAM,
++      TTM_PL_CI,
++      TTM_PL_RAR,
++      DRM_PSB_MEM_KERNEL,
++      DRM_PSB_MEM_MMU,
++      DRM_PSB_MEM_RASTGEOM,
++      DRM_PSB_MEM_PDS,
++      DRM_PSB_MEM_APER,
++      TTM_PL_SYSTEM
++};
++
++
++struct ttm_bo_driver psb_ttm_bo_driver = {
++      .mem_type_prio = psb_mem_prios,
++      .mem_busy_prio = psb_busy_prios,
++      .num_mem_type_prio = ARRAY_SIZE(psb_mem_prios),
++      .num_mem_busy_prio = ARRAY_SIZE(psb_busy_prios),
++      .create_ttm_backend_entry = &drm_psb_tbe_init,
++      .invalidate_caches = &psb_invalidate_caches,
++      .init_mem_type = &psb_init_mem_type,
++      .evict_flags = &psb_evict_mask,
++      .move = &psb_move,
++      .verify_access = &psb_verify_access,
++      .sync_obj_signaled = &ttm_fence_sync_obj_signaled,
++      .sync_obj_wait = &ttm_fence_sync_obj_wait,
++      .sync_obj_flush = &ttm_fence_sync_obj_flush,
++      .sync_obj_unref = &ttm_fence_sync_obj_unref,
++      .sync_obj_ref = &ttm_fence_sync_obj_ref
++};
+diff --git a/drivers/gpu/drm/psb/psb_dpst.c b/drivers/gpu/drm/psb/psb_dpst.c
+new file mode 100644
+index 0000000..435e53b
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_dpst.c
+@@ -0,0 +1,208 @@
++/*
++ * Copyright Â© 2009 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
++ * IN THE SOFTWARE.
++ *
++ * Authors:
++ *    James C. Gualario <james.c.gualario@intel.com>
++ *
++ */
++#include "psb_umevents.h"
++#include "psb_dpst.h"
++/**
++ * inform the kernel of the work to be performed and related function.
++ *
++ */
++DECLARE_WORK(dpst_dev_change_work, &psb_dpst_dev_change_wq);
++/**
++ * psb_dpst_notify_change_um - notify user mode of hotplug changes
++ *
++ * @name: name of event to notify user mode of change to
++ * @state: dpst state struct to get workqueue from
++ *
++ */
++int psb_dpst_notify_change_um(struct umevent_obj *event,
++                            struct dpst_state *state)
++{
++      state->dpst_change_wq_data.dev_name_arry_rw_status
++              [state->dpst_change_wq_data.dev_name_write] =
++              DRM_DPST_READY_TO_READ;
++      state->dpst_change_wq_data.dev_umevent_arry
++              [state->dpst_change_wq_data.dev_name_write] =
++              event;
++      if (state->dpst_change_wq_data.dev_name_read_write_wrap_ack == 1)
++              state->dpst_change_wq_data.dev_name_read_write_wrap_ack = 0;
++      state->dpst_change_wq_data.dev_name_write++;
++      if (state->dpst_change_wq_data.dev_name_write ==
++         state->dpst_change_wq_data.dev_name_read) {
++              state->dpst_change_wq_data.dev_name_write--;
++              return IRQ_NONE;
++      }
++      if (state->dpst_change_wq_data.dev_name_write >
++         DRM_DPST_RING_DEPTH_MAX) {
++              state->dpst_change_wq_data.dev_name_write = 0;
++              state->dpst_change_wq_data.dev_name_write_wrap = 1;
++      }
++      state->dpst_change_wq_data.hotplug_dev_list = state->list;
++      queue_work(state->dpst_wq, &(state->dpst_change_wq_data.work));
++      return IRQ_HANDLED;
++}
++EXPORT_SYMBOL(psb_dpst_notify_change_um);
++/**
++ *
++ * psb_dpst_create_and_notify_um - create and notify user mode of new dev
++ *
++ * @name: name to give for new event / device
++ * @state: dpst state instaces to associate event with
++ *
++ */
++struct umevent_obj *psb_dpst_create_and_notify_um(const char *name,
++                                                struct dpst_state *state)
++{
++      return psb_create_umevent_obj(name, state->list);
++
++}
++EXPORT_SYMBOL(psb_dpst_create_and_notify_um);
++/**
++ * psb_dpst_device_pool_create_and_init - make new hotplug device pool
++ *
++ * @parent_kobj - parent kobject to associate dpst kset with
++ * @state - dpst state instance to associate list with
++ *
++ */
++struct umevent_list *psb_dpst_device_pool_create_and_init(
++                                                struct kobject *parent_kobj,
++                                                struct dpst_state *state)
++{
++
++      struct umevent_list *new_hotplug_dev_list = NULL;
++      new_hotplug_dev_list = psb_umevent_create_list();
++      if (new_hotplug_dev_list)
++              psb_umevent_init(parent_kobj, new_hotplug_dev_list,
++                               "psb_dpst");
++
++      state->dpst_wq = create_singlethread_workqueue("dpst-wq");
++
++      if (!state->dpst_wq)
++              return NULL;
++
++      INIT_WORK(&state->dpst_change_wq_data.work, psb_dpst_dev_change_wq);
++
++      state->dpst_change_wq_data.dev_name_read = 0;
++      state->dpst_change_wq_data.dev_name_write = 0;
++      state->dpst_change_wq_data.dev_name_write_wrap = 0;
++      state->dpst_change_wq_data.dev_name_read_write_wrap_ack = 0;
++
++      memset(&(state->dpst_change_wq_data.dev_name_arry_rw_status[0]),
++             0, sizeof(int)*DRM_DPST_RING_DEPTH);
++
++      return new_hotplug_dev_list;
++}
++EXPORT_SYMBOL(psb_dpst_device_pool_create_and_init);
++/**
++ * psb_dpst_init - init dpst subsystem
++ * @parent_kobj - parent kobject to associate dpst state with
++ *
++ */
++struct dpst_state *psb_dpst_init(struct kobject *parent_kobj)
++{
++      struct dpst_state *state;
++      state = kzalloc(sizeof(struct dpst_state), GFP_KERNEL);
++      printk(KERN_ALERT "after kzalloc\n");
++      state->list = NULL;
++      state->list = psb_dpst_device_pool_create_and_init(
++                                                parent_kobj,
++                                                state);
++      return state;
++}
++EXPORT_SYMBOL(psb_dpst_init);
++/**
++ * psb_dpst_device_pool_destroy - destroy all dpst related resources
++ *
++ * @state: dpst state instance to destroy
++ *
++ */
++void psb_dpst_device_pool_destroy(struct dpst_state *state)
++{
++      flush_workqueue(state->dpst_wq);
++      destroy_workqueue(state->dpst_wq);
++      psb_umevent_cleanup(state->list);
++      kfree(state);
++}
++EXPORT_SYMBOL(psb_dpst_device_pool_destroy);
++/**
++ * psb_dpst_dev_change_wq - change workqueue implementation
++ *
++ * @work: work struct to use for kernel scheduling
++ *
++ */
++void psb_dpst_dev_change_wq(struct work_struct *work)
++{
++      struct dpst_disp_workqueue_data *wq_data;
++      wq_data = to_dpst_disp_workqueue_data(work);
++      if (wq_data->dev_name_write_wrap == 1) {
++              wq_data->dev_name_read_write_wrap_ack = 1;
++              wq_data->dev_name_write_wrap = 0;
++              while (wq_data->dev_name_read != DRM_DPST_RING_DEPTH_MAX) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_DPST_READY_TO_READ) {
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                              DRM_DPST_READ_COMPLETE;
++                              psb_umevent_notify_change_gfxsock
++                                      (wq_data->dev_umevent_arry
++                                       [wq_data->dev_name_read]);
++                      }
++                      wq_data->dev_name_read++;
++              }
++              wq_data->dev_name_read = 0;
++              while (wq_data->dev_name_read < wq_data->dev_name_write-1) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_DPST_READY_TO_READ) {
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                              DRM_DPST_READ_COMPLETE;
++                              psb_umevent_notify_change_gfxsock
++                                      (wq_data->dev_umevent_arry
++                                       [wq_data->dev_name_read]);
++                      }
++                      wq_data->dev_name_read++;
++              }
++      } else {
++              while (wq_data->dev_name_read < wq_data->dev_name_write) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_DPST_READY_TO_READ) {
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                                      DRM_DPST_READ_COMPLETE;
++                              psb_umevent_notify_change_gfxsock
++                                      (wq_data->dev_umevent_arry
++                                       [wq_data->dev_name_read]);
++                      }
++                      wq_data->dev_name_read++;
++              }
++      }
++      if (wq_data->dev_name_read > DRM_DPST_RING_DEPTH_MAX)
++              wq_data->dev_name_read = 0;
++}
++EXPORT_SYMBOL(psb_dpst_dev_change_wq);
+diff --git a/drivers/gpu/drm/psb/psb_dpst.h b/drivers/gpu/drm/psb/psb_dpst.h
+new file mode 100644
+index 0000000..43d3128
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_dpst.h
+@@ -0,0 +1,90 @@
++/*
++ * Copyright Â© 2009 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
++ * IN THE SOFTWARE.
++ *
++ * Authors:
++ *    James C. Gualario <james.c.gualario@intel.com>
++ *
++ */
++#ifndef _PSB_DPST_H_
++#define _PSB_DPST_H_
++/**
++ * required includes
++ *
++ */
++#include "psb_umevents.h"
++/**
++ * dpst specific defines
++ *
++ */
++#define DRM_DPST_RING_DEPTH 256
++#define DRM_DPST_RING_DEPTH_MAX (DRM_DPST_RING_DEPTH-1)
++#define DRM_DPST_READY_TO_READ 1
++#define DRM_DPST_READ_COMPLETE 2
++/**
++ * dpst workqueue data struct.
++ */
++struct dpst_disp_workqueue_data {
++      struct work_struct work;
++      const char *dev_name;
++      int dev_name_write;
++      int dev_name_read;
++      int dev_name_write_wrap;
++      int dev_name_read_write_wrap_ack;
++      struct umevent_obj *dev_umevent_arry[DRM_DPST_RING_DEPTH];
++      int dev_name_arry_rw_status[DRM_DPST_RING_DEPTH];
++      struct umevent_list *hotplug_dev_list;
++};
++/**
++ * dpst state structure
++ *
++ */
++struct dpst_state {
++      struct workqueue_struct *dpst_wq;
++      struct dpst_disp_workqueue_data dpst_change_wq_data;
++      struct umevent_list *list;
++};
++/**
++ * main interface function prototytpes for dpst support.
++ *
++ */
++extern struct dpst_state *psb_dpst_init(struct kobject *parent_kobj);
++extern int psb_dpst_notify_change_um(struct umevent_obj *event,
++                                   struct dpst_state *state);
++extern struct umevent_obj *psb_dpst_create_and_notify_um(const char *name,
++                                               struct dpst_state *state);
++extern struct umevent_list *psb_dpst_device_pool_create_and_init(
++                                               struct kobject *parent_kobj,
++                                               struct dpst_state *state);
++extern void psb_dpst_device_pool_destroy(struct dpst_state *state);
++/**
++ * to go back and forth between work struct and workqueue data
++ *
++ */
++#define to_dpst_disp_workqueue_data(x) \
++      container_of(x, struct dpst_disp_workqueue_data, work)
++
++/**
++ * function prototypes for workqueue implementation
++ *
++ */
++extern void psb_dpst_dev_change_wq(struct work_struct *work);
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_drm.h b/drivers/gpu/drm/psb/psb_drm.h
+new file mode 100644
+index 0000000..596a9f0
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_drm.h
+@@ -0,0 +1,716 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ * Copyright (c) 2008, Tungsten Graphics Inc.  Cedar Park, TX., USA.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ */
++
++#ifndef _PSB_DRM_H_
++#define _PSB_DRM_H_
++
++#if defined(__linux__) && !defined(__KERNEL__)
++#include<stdint.h>
++#include "drm_mode.h"
++#endif
++
++#include "ttm/ttm_fence_user.h"
++#include "ttm/ttm_placement_user.h"
++
++/*
++ * Menlow/MRST graphics driver package version
++ * a.b.c.xxxx
++ * a - Product Family: 5 - Linux
++ * b - Major Release Version: 0 - non-Gallium (Unbuntu);
++ *                            1 - Gallium (Moblin2)
++ * c - Hotfix Release
++ * xxxx - Graphics internal build #
++ */
++#define PSB_PACKAGE_VERSION "5.1.0.32L.0124"
++
++#define DRM_PSB_SAREA_MAJOR 0
++#define DRM_PSB_SAREA_MINOR 2
++#define PSB_FIXED_SHIFT 16
++
++#define DRM_PSB_FIRST_TA_USE_REG 3
++#define DRM_PSB_NUM_TA_USE_REG 5
++#define DRM_PSB_FIRST_RASTER_USE_REG 8
++#define DRM_PSB_NUM_RASTER_USE_REG 7
++
++#define PSB_NUM_PIPE 2
++
++/*
++ * Public memory types.
++ */
++
++#define DRM_PSB_MEM_MMU TTM_PL_PRIV1
++#define DRM_PSB_FLAG_MEM_MMU TTM_PL_FLAG_PRIV1
++#define DRM_PSB_MEM_PDS TTM_PL_PRIV2
++#define DRM_PSB_FLAG_MEM_PDS TTM_PL_FLAG_PRIV2
++#define DRM_PSB_MEM_APER TTM_PL_PRIV3
++#define DRM_PSB_FLAG_MEM_APER TTM_PL_FLAG_PRIV3
++#define DRM_PSB_MEM_RASTGEOM TTM_PL_PRIV4
++#define DRM_PSB_FLAG_MEM_RASTGEOM TTM_PL_FLAG_PRIV4
++#define PSB_MEM_RASTGEOM_START   0x30000000
++
++typedef int32_t psb_fixed;
++typedef uint32_t psb_ufixed;
++
++static inline int32_t psb_int_to_fixed(int a)
++{
++      return a * (1 << PSB_FIXED_SHIFT);
++}
++
++static inline uint32_t psb_unsigned_to_ufixed(unsigned int a)
++{
++      return a << PSB_FIXED_SHIFT;
++}
++
++/*Status of the command sent to the gfx device.*/
++typedef enum {
++      DRM_CMD_SUCCESS,
++      DRM_CMD_FAILED,
++      DRM_CMD_HANG
++} drm_cmd_status_t;
++
++struct drm_psb_scanout {
++      uint32_t buffer_id;     /* DRM buffer object ID */
++      uint32_t rotation;      /* Rotation as in RR_rotation definitions */
++      uint32_t stride;        /* Buffer stride in bytes */
++      uint32_t depth;         /* Buffer depth in bits (NOT) bpp */
++      uint32_t width;         /* Buffer width in pixels */
++      uint32_t height;        /* Buffer height in lines */
++      int32_t transform[3][3];        /* Buffer composite transform */
++      /* (scaling, rot, reflect) */
++};
++
++#define DRM_PSB_SAREA_OWNERS 16
++#define DRM_PSB_SAREA_OWNER_2D 0
++#define DRM_PSB_SAREA_OWNER_3D 1
++
++#define DRM_PSB_SAREA_SCANOUTS 3
++
++struct drm_psb_sarea {
++      /* Track changes of this data structure */
++
++      uint32_t major;
++      uint32_t minor;
++
++      /* Last context to touch part of hw */
++      uint32_t ctx_owners[DRM_PSB_SAREA_OWNERS];
++
++      /* Definition of front- and rotated buffers */
++      uint32_t num_scanouts;
++      struct drm_psb_scanout scanouts[DRM_PSB_SAREA_SCANOUTS];
++
++      int planeA_x;
++      int planeA_y;
++      int planeA_w;
++      int planeA_h;
++      int planeB_x;
++      int planeB_y;
++      int planeB_w;
++      int planeB_h;
++      /* Number of active scanouts */
++      uint32_t num_active_scanouts;
++};
++
++#define PSB_RELOC_MAGIC         0x67676767
++#define PSB_RELOC_SHIFT_MASK    0x0000FFFF
++#define PSB_RELOC_SHIFT_SHIFT   0
++#define PSB_RELOC_ALSHIFT_MASK  0xFFFF0000
++#define PSB_RELOC_ALSHIFT_SHIFT 16
++
++#define PSB_RELOC_OP_OFFSET     0     /* Offset of the indicated
++                                       * buffer
++                                       */
++#define PSB_RELOC_OP_2D_OFFSET  1     /* Offset of the indicated
++                                       *  buffer, relative to 2D
++                                       *  base address
++                                       */
++#define PSB_RELOC_OP_PDS_OFFSET 2     /* Offset of the indicated buffer,
++                                       *  relative to PDS base address
++                                       */
++#define PSB_RELOC_OP_STRIDE     3     /* Stride of the indicated
++                                       * buffer (for tiling)
++                                       */
++#define PSB_RELOC_OP_USE_OFFSET 4     /* Offset of USE buffer
++                                       * relative to base reg
++                                       */
++#define PSB_RELOC_OP_USE_REG    5     /* Base reg of USE buffer */
++
++struct drm_psb_reloc {
++      uint32_t reloc_op;
++      uint32_t where;         /* offset in destination buffer */
++      uint32_t buffer;        /* Buffer reloc applies to */
++      uint32_t mask;          /* Destination format: */
++      uint32_t shift;         /* Destination format: */
++      uint32_t pre_add;       /* Destination format: */
++      uint32_t background;    /* Destination add */
++      uint32_t dst_buffer;    /* Destination buffer. Index into buffer_list */
++      uint32_t arg0;          /* Reloc-op dependant */
++      uint32_t arg1;
++};
++
++
++#define PSB_GPU_ACCESS_READ         (1ULL << 32)
++#define PSB_GPU_ACCESS_WRITE        (1ULL << 33)
++#define PSB_GPU_ACCESS_MASK         (PSB_GPU_ACCESS_READ | PSB_GPU_ACCESS_WRITE)
++
++#define PSB_BO_FLAG_TA              (1ULL << 48)
++#define PSB_BO_FLAG_SCENE           (1ULL << 49)
++#define PSB_BO_FLAG_FEEDBACK        (1ULL << 50)
++#define PSB_BO_FLAG_USSE            (1ULL << 51)
++#define PSB_BO_FLAG_COMMAND         (1ULL << 52)
++
++#define PSB_ENGINE_2D 0
++#define PSB_ENGINE_VIDEO 1
++#define PSB_ENGINE_RASTERIZER 2
++#define PSB_ENGINE_TA 3
++#define PSB_ENGINE_HPRAST 4
++#define LNC_ENGINE_ENCODE 5
++
++/*
++ * For this fence class we have a couple of
++ * fence types.
++ */
++
++#define _PSB_FENCE_EXE_SHIFT           0
++#define _PSB_FENCE_TA_DONE_SHIFT       1
++#define _PSB_FENCE_RASTER_DONE_SHIFT   2
++#define _PSB_FENCE_SCENE_DONE_SHIFT    3
++#define _PSB_FENCE_FEEDBACK_SHIFT      4
++
++#define _PSB_ENGINE_TA_FENCE_TYPES   5
++#define _PSB_FENCE_TYPE_EXE         (1 << _PSB_FENCE_EXE_SHIFT)
++#define _PSB_FENCE_TYPE_TA_DONE     (1 << _PSB_FENCE_TA_DONE_SHIFT)
++#define _PSB_FENCE_TYPE_RASTER_DONE (1 << _PSB_FENCE_RASTER_DONE_SHIFT)
++#define _PSB_FENCE_TYPE_SCENE_DONE  (1 << _PSB_FENCE_SCENE_DONE_SHIFT)
++#define _PSB_FENCE_TYPE_FEEDBACK    (1 << _PSB_FENCE_FEEDBACK_SHIFT)
++
++#define PSB_ENGINE_HPRAST 4
++#define PSB_NUM_ENGINES 6
++
++#define PSB_TA_FLAG_FIRSTPASS    (1 << 0)
++#define PSB_TA_FLAG_LASTPASS     (1 << 1)
++
++#define PSB_FEEDBACK_OP_VISTEST (1 << 0)
++
++struct drm_psb_extension_rep {
++      int32_t exists;
++      uint32_t driver_ioctl_offset;
++        uint32_t sarea_offset;
++      uint32_t major;
++      uint32_t minor;
++      uint32_t pl;
++};
++
++#define DRM_PSB_EXT_NAME_LEN 128
++
++union drm_psb_extension_arg {
++      char extension[DRM_PSB_EXT_NAME_LEN];
++      struct drm_psb_extension_rep rep;
++};
++
++struct psb_validate_req {
++      uint64_t set_flags;
++      uint64_t clear_flags;
++      uint64_t next;
++      uint64_t presumed_gpu_offset;
++      uint32_t buffer_handle;
++      uint32_t presumed_flags;
++      uint32_t group;
++      uint32_t pad64;
++};
++
++struct psb_validate_rep {
++      uint64_t gpu_offset;
++      uint32_t placement;
++      uint32_t fence_type_mask;
++};
++
++#define PSB_USE_PRESUMED     (1 << 0)
++
++struct psb_validate_arg {
++      int handled;
++      int ret;
++      union {
++              struct psb_validate_req req;
++              struct psb_validate_rep rep;
++      } d;
++};
++
++struct drm_psb_scene {
++      int handle_valid;
++      uint32_t handle;
++      uint32_t w;             /* also contains msaa info */
++      uint32_t h;
++      uint32_t num_buffers;
++};
++
++#define DRM_PSB_FENCE_NO_USER        (1 << 0)
++
++struct psb_ttm_fence_rep {
++      uint32_t handle;
++      uint32_t fence_class;
++      uint32_t fence_type;
++      uint32_t signaled_types;
++      uint32_t error;
++};
++
++typedef struct drm_psb_cmdbuf_arg {
++      uint64_t buffer_list;   /* List of buffers to validate */
++      uint64_t clip_rects;    /* See i915 counterpart */
++      uint64_t scene_arg;
++      uint64_t fence_arg;
++
++      uint32_t ta_flags;
++
++      uint32_t ta_handle;     /* TA reg-value pairs */
++      uint32_t ta_offset;
++      uint32_t ta_size;
++
++      uint32_t oom_handle;
++      uint32_t oom_offset;
++      uint32_t oom_size;
++
++      uint32_t cmdbuf_handle; /* 2D Command buffer object or, */
++      uint32_t cmdbuf_offset; /* rasterizer reg-value pairs */
++      uint32_t cmdbuf_size;
++
++      uint32_t reloc_handle;  /* Reloc buffer object */
++      uint32_t reloc_offset;
++      uint32_t num_relocs;
++
++      int32_t damage;         /* Damage front buffer with cliprects */
++      /* Not implemented yet */
++      uint32_t fence_flags;
++      uint32_t engine;
++
++      /*
++       * Feedback;
++       */
++
++      uint32_t feedback_ops;
++      uint32_t feedback_handle;
++      uint32_t feedback_offset;
++      uint32_t feedback_breakpoints;
++      uint32_t feedback_size;
++}drm_psb_cmdbuf_arg_t;
++
++typedef struct drm_psb_pageflip_arg {
++      uint32_t flip_offset;
++      uint32_t stride;
++}drm_psb_pageflip_arg_t;
++
++typedef enum {
++      LNC_VIDEO_FRAME_SKIP,
++      LNC_VIDEO_GETPARAM_RAR_REGION_SIZE,
++      LNC_VIDEO_GETPARAM_RAR_HANDLER_OFFSET
++} lnc_getparam_key_t;
++
++struct drm_lnc_video_getparam_arg {
++      lnc_getparam_key_t key;
++      uint64_t arg;   /* argument pointer */
++      uint64_t value; /* feed back pointer */
++};
++
++struct drm_psb_xhw_init_arg {
++      uint32_t operation;
++      uint32_t buffer_handle;
++};
++
++/*
++ * Feedback components:
++ */
++
++/*
++ * Vistest component. The number of these in the feedback buffer
++ * equals the number of vistest breakpoints + 1.
++ * This is currently the only feedback component.
++ */
++
++struct drm_psb_vistest {
++      uint32_t vt[8];
++};
++
++struct drm_psb_sizes_arg {
++      uint32_t ta_mem_size;
++      uint32_t mmu_size;
++      uint32_t pds_size;
++      uint32_t rastgeom_size;
++      uint32_t tt_size;
++      uint32_t vram_size;
++};
++
++struct mrst_timing_info {
++      uint16_t pixel_clock;
++      uint8_t hactive_lo;
++      uint8_t hblank_lo;
++      uint8_t hblank_hi:4;
++      uint8_t hactive_hi:4;
++      uint8_t vactive_lo;
++      uint8_t vblank_lo;
++      uint8_t vblank_hi:4;
++      uint8_t vactive_hi:4;
++      uint8_t hsync_offset_lo;
++      uint8_t hsync_pulse_width_lo;
++      uint8_t vsync_pulse_width_lo:4;
++      uint8_t vsync_offset_lo:4;
++      uint8_t vsync_pulse_width_hi:2;
++      uint8_t vsync_offset_hi:2;
++      uint8_t hsync_pulse_width_hi:2;
++      uint8_t hsync_offset_hi:2;
++      uint8_t width_mm_lo;
++      uint8_t height_mm_lo;
++      uint8_t height_mm_hi:4;
++      uint8_t width_mm_hi:4;
++      uint8_t hborder;
++      uint8_t vborder;
++      uint8_t unknown0:1;
++      uint8_t hsync_positive:1;
++      uint8_t vsync_positive:1;
++      uint8_t separate_sync:2;
++      uint8_t stereo:1;
++      uint8_t unknown6:1;
++      uint8_t interlaced:1;
++} __attribute__((packed));
++
++struct mrst_panel_descriptor_v1{
++      uint32_t Panel_Port_Control; /* 1 dword, Register 0x61180 if LVDS */
++                              /* 0x61190 if MIPI */
++      uint32_t Panel_Power_On_Sequencing;/*1 dword,Register 0x61208,*/
++      uint32_t Panel_Power_Off_Sequencing;/*1 dword,Register 0x6120C,*/
++      uint32_t Panel_Power_Cycle_Delay_and_Reference_Divisor;/* 1 dword */
++                                              /* Register 0x61210 */
++      struct mrst_timing_info DTD;/*18 bytes, Standard definition */
++      uint16_t Panel_Backlight_Inverter_Descriptor;/* 16 bits, as follows */
++                              /* Bit 0, Frequency, 15 bits,0 - 32767Hz */
++                      /* Bit 15, Polarity, 1 bit, 0: Normal, 1: Inverted */
++      uint16_t Panel_MIPI_Display_Descriptor;
++                      /*16 bits, Defined as follows: */
++                      /* if MIPI, 0x0000 if LVDS */
++                      /* Bit 0, Type, 2 bits, */
++                      /* 0: Type-1, */
++                      /* 1: Type-2, */
++                      /* 2: Type-3, */
++                      /* 3: Type-4 */
++                      /* Bit 2, Pixel Format, 4 bits */
++                      /* Bit0: 16bpp (not supported in LNC), */
++                      /* Bit1: 18bpp loosely packed, */
++                      /* Bit2: 18bpp packed, */
++                      /* Bit3: 24bpp */
++                      /* Bit 6, Reserved, 2 bits, 00b */
++              /* Bit 8, Minimum Supported Frame Rate, 6 bits, 0 - 63Hz */
++                      /* Bit 14, Reserved, 2 bits, 00b */
++} __attribute__ ((packed));
++
++struct mrst_panel_descriptor_v2{
++      uint32_t Panel_Port_Control; /* 1 dword, Register 0x61180 if LVDS */
++                              /* 0x61190 if MIPI */
++      uint32_t Panel_Power_On_Sequencing;/*1 dword,Register 0x61208,*/
++      uint32_t Panel_Power_Off_Sequencing;/*1 dword,Register 0x6120C,*/
++      uint8_t Panel_Power_Cycle_Delay_and_Reference_Divisor;/* 1 byte */
++                                              /* Register 0x61210 */
++      struct mrst_timing_info DTD;/*18 bytes, Standard definition */
++      uint16_t Panel_Backlight_Inverter_Descriptor;/*16 bits, as follows*/
++                              /*Bit 0, Frequency, 16 bits, 0 - 32767Hz*/
++      uint8_t Panel_Initial_Brightness;/* [7:0] 0 - 100% */
++                      /*Bit 7, Polarity, 1 bit,0: Normal, 1: Inverted*/
++      uint16_t Panel_MIPI_Display_Descriptor;
++                      /*16 bits, Defined as follows: */
++                      /* if MIPI, 0x0000 if LVDS */
++                      /* Bit 0, Type, 2 bits, */
++                      /* 0: Type-1, */
++                      /* 1: Type-2, */
++                      /* 2: Type-3, */
++                      /* 3: Type-4 */
++                      /* Bit 2, Pixel Format, 4 bits */
++                      /* Bit0: 16bpp (not supported in LNC), */
++                      /* Bit1: 18bpp loosely packed, */
++                      /* Bit2: 18bpp packed, */
++                      /* Bit3: 24bpp */
++                      /* Bit 6, Reserved, 2 bits, 00b */
++              /* Bit 8, Minimum Supported Frame Rate, 6 bits, 0 - 63Hz */
++                      /* Bit 14, Reserved, 2 bits, 00b */
++} __attribute__ ((packed));
++
++union mrst_panel_rx{
++      struct{
++              uint16_t NumberOfLanes :2; /*Num of Lanes, 2 bits,0 = 1 lane,*/
++                      /* 1 = 2 lanes, 2 = 3 lanes, 3 = 4 lanes. */
++              uint16_t MaxLaneFreq :3; /* 0: 100MHz, 1: 200MHz, 2: 300MHz, */
++              /*3: 400MHz, 4: 500MHz, 5: 600MHz, 6: 700MHz, 7: 800MHz.*/
++              uint16_t SupportedVideoTransferMode :2; /*0: Non-burst only */
++                                      /* 1: Burst and non-burst */
++                                      /* 2/3: Reserved */
++              uint16_t HSClkBehavior :1; /*0: Continuous, 1: Non-continuous*/
++              uint16_t DuoDisplaySupport :1; /*1 bit,0: No, 1: Yes*/
++              uint16_t ECC_ChecksumCapabilities :1;/*1 bit,0: No, 1: Yes*/
++              uint16_t BidirectionalCommunication :1;/*1 bit,0: No, 1: Yes */
++              uint16_t Rsvd :5;/*5 bits,00000b */
++      }panelrx;
++      uint16_t panel_receiver;
++} __attribute__ ((packed));
++
++struct gct_ioctl_arg{
++      uint8_t bpi; /* boot panel index, number of panel used during boot */
++      uint8_t pt; /* panel type, 4 bit field, 0=lvds, 1=mipi */
++      struct mrst_timing_info DTD; /* timing info for the selected panel */
++      uint32_t Panel_Port_Control;
++      uint32_t PP_On_Sequencing;/*1 dword,Register 0x61208,*/
++      uint32_t PP_Off_Sequencing;/*1 dword,Register 0x6120C,*/
++      uint32_t PP_Cycle_Delay;
++      uint16_t Panel_Backlight_Inverter_Descriptor;
++} __attribute__ ((packed));
++
++struct mrst_vbt{
++      char Signature[4]; /*4 bytes,"$GCT" */
++      uint8_t Revision; /*1 byte */
++      uint8_t Size; /*1 byte */
++      uint8_t Checksum; /*1 byte,Calculated*/
++      void *mrst_gct;
++} __attribute__ ((packed));
++
++struct mrst_gct_v1{ /* expect this table to change per customer request*/
++      union{ /*8 bits,Defined as follows: */
++              struct{
++                      uint8_t PanelType :4; /*4 bits, Bit field for panels*/
++                                      /* 0 - 3: 0 = LVDS, 1 = MIPI*/
++                      uint8_t BootPanelIndex :2;/*2 bits,Specifies which of the*/
++                                      /* 4 panels to use by default*/
++                      uint8_t BootMIPI_DSI_RxIndex :2;/*Specifies which of*/
++                                      /* the 4 MIPI DSI receivers to use*/
++                      }PD;
++              uint8_t PanelDescriptor;
++      };
++      struct mrst_panel_descriptor_v1 panel[4];/*panel descrs,38 bytes each*/
++      union mrst_panel_rx panelrx[4]; /* panel receivers*/
++} __attribute__ ((packed));
++
++struct mrst_gct_v2{ /* expect this table to change per customer request*/
++      union{ /*8 bits,Defined as follows: */
++              struct{
++                      uint8_t PanelType :4; /*4 bits, Bit field for panels*/
++                                      /* 0 - 3: 0 = LVDS, 1 = MIPI*/
++                      uint8_t BootPanelIndex :2;/*2 bits,Specifies which of the*/
++                                      /* 4 panels to use by default*/
++                      uint8_t BootMIPI_DSI_RxIndex :2;/*Specifies which of*/
++                                      /* the 4 MIPI DSI receivers to use*/
++                      }PD;
++              uint8_t PanelDescriptor;
++      };
++      struct mrst_panel_descriptor_v2 panel[4];/*panel descrs,38 bytes each*/
++      union mrst_panel_rx panelrx[4]; /* panel receivers*/
++} __attribute__ ((packed));
++
++#define PSB_DC_CRTC_SAVE 0x01
++#define PSB_DC_CRTC_RESTORE 0x02
++#define PSB_DC_OUTPUT_SAVE 0x04
++#define PSB_DC_OUTPUT_RESTORE 0x08
++#define PSB_DC_CRTC_MASK 0x03
++#define PSB_DC_OUTPUT_MASK 0x0C
++
++struct drm_psb_dc_state_arg {
++      uint32_t flags;
++      uint32_t obj_id;
++};
++
++struct drm_psb_mode_operation_arg {
++      uint32_t obj_id;
++      uint16_t operation;
++      struct drm_mode_modeinfo mode;
++      void * data;
++};
++
++struct drm_psb_stolen_memory_arg {
++      uint32_t base;
++      uint32_t size;
++};
++
++/*Display Register Bits*/
++#define REGRWBITS_PFIT_CONTROLS                       (1 << 0)
++#define REGRWBITS_PFIT_AUTOSCALE_RATIOS               (1 << 1)
++#define REGRWBITS_PFIT_PROGRAMMED_SCALE_RATIOS        (1 << 2)
++#define REGRWBITS_PIPEASRC                    (1 << 3)
++#define REGRWBITS_PIPEBSRC                    (1 << 4)
++#define REGRWBITS_VTOTAL_A                    (1 << 5)
++#define REGRWBITS_VTOTAL_B                    (1 << 6)
++
++/*Overlay Register Bits*/
++#define OV_REGRWBITS_OVADD                    (1 << 0)
++#define OV_REGRWBITS_OGAM_ALL                 (1 << 1)
++
++struct drm_psb_register_rw_arg {
++      uint32_t b_force_hw_on;
++
++      uint32_t display_read_mask;
++      uint32_t display_write_mask;
++
++      struct {
++              uint32_t pfit_controls;
++              uint32_t pfit_autoscale_ratios;
++              uint32_t pfit_programmed_scale_ratios;
++              uint32_t pipeasrc;
++              uint32_t pipebsrc;
++              uint32_t vtotal_a;
++              uint32_t vtotal_b;
++      } display;
++
++      uint32_t overlay_read_mask;
++      uint32_t overlay_write_mask;
++
++      struct {
++              uint32_t OVADD;
++              uint32_t OGAMC0;
++              uint32_t OGAMC1;
++              uint32_t OGAMC2;
++              uint32_t OGAMC3;
++              uint32_t OGAMC4;
++              uint32_t OGAMC5;
++      } overlay;
++};
++
++#define PSB_HW_COOKIE_SIZE 16
++#define PSB_HW_FEEDBACK_SIZE 8
++#define PSB_HW_OOM_CMD_SIZE (6 + DRM_PSB_NUM_RASTER_USE_REG * 2)
++
++struct drm_psb_xhw_arg {
++      uint32_t op;
++      int ret;
++      uint32_t irq_op;
++      uint32_t issue_irq;
++      uint32_t cookie[PSB_HW_COOKIE_SIZE];
++      union {
++              struct {
++                      uint32_t w;     /* also contains msaa info */
++                      uint32_t h;
++                      uint32_t size;
++                      uint32_t clear_p_start;
++                      uint32_t clear_num_pages;
++              } si;
++              struct {
++                      uint32_t fire_flags;
++                      uint32_t hw_context;
++                      uint32_t offset;
++                      uint32_t engine;
++                      uint32_t flags;
++                      uint32_t rca;
++                      uint32_t num_oom_cmds;
++                      uint32_t oom_cmds[PSB_HW_OOM_CMD_SIZE];
++              } sb;
++              struct {
++                      uint32_t pages;
++                      uint32_t size;
++                      uint32_t ta_min_size;
++              } bi;
++              struct {
++                      uint32_t bca;
++                      uint32_t rca;
++                      uint32_t flags;
++              } oom;
++              struct {
++                      uint32_t pt_offset;
++                      uint32_t param_offset;
++                      uint32_t flags;
++              } bl;
++              struct {
++                      uint32_t value;
++              } cl;
++              uint32_t feedback[PSB_HW_FEEDBACK_SIZE];
++      } arg;
++};
++
++/* Controlling the kernel modesetting buffers */
++
++#define DRM_PSB_KMS_OFF               0x00
++#define DRM_PSB_KMS_ON                0x01
++#define DRM_PSB_VT_LEAVE        0x02
++#define DRM_PSB_VT_ENTER        0x03
++#define DRM_PSB_XHW_INIT        0x04
++#define DRM_PSB_XHW             0x05
++#define DRM_PSB_EXTENSION       0x06
++#define DRM_PSB_SIZES           0x07
++#define DRM_PSB_FUSE_REG      0x08
++#define DRM_PSB_VBT           0x09
++#define DRM_PSB_DC_STATE      0x0A
++#define DRM_PSB_ADB           0x0B
++#define DRM_PSB_MODE_OPERATION        0x0C
++#define DRM_PSB_STOLEN_MEMORY 0x0D
++#define DRM_PSB_REGISTER_RW   0x0E
++
++/*
++ * Xhw commands.
++ */
++
++#define PSB_XHW_INIT            0x00
++#define PSB_XHW_TAKEDOWN        0x01
++
++#define PSB_XHW_FIRE_RASTER     0x00
++#define PSB_XHW_SCENE_INFO      0x01
++#define PSB_XHW_SCENE_BIND_FIRE 0x02
++#define PSB_XHW_TA_MEM_INFO     0x03
++#define PSB_XHW_RESET_DPM       0x04
++#define PSB_XHW_OOM             0x05
++#define PSB_XHW_TERMINATE       0x06
++#define PSB_XHW_VISTEST         0x07
++#define PSB_XHW_RESUME          0x08
++#define PSB_XHW_TA_MEM_LOAD   0x09
++#define PSB_XHW_CHECK_LOCKUP    0x0a
++
++#define PSB_SCENE_FLAG_DIRTY       (1 << 0)
++#define PSB_SCENE_FLAG_COMPLETE    (1 << 1)
++#define PSB_SCENE_FLAG_SETUP       (1 << 2)
++#define PSB_SCENE_FLAG_SETUP_ONLY  (1 << 3)
++#define PSB_SCENE_FLAG_CLEARED     (1 << 4)
++
++#define PSB_TA_MEM_FLAG_TA            (1 << 0)
++#define PSB_TA_MEM_FLAG_RASTER        (1 << 1)
++#define PSB_TA_MEM_FLAG_HOSTA         (1 << 2)
++#define PSB_TA_MEM_FLAG_HOSTD         (1 << 3)
++#define PSB_TA_MEM_FLAG_INIT          (1 << 4)
++#define PSB_TA_MEM_FLAG_NEW_PT_OFFSET (1 << 5)
++
++/*Raster fire will deallocate memory */
++#define PSB_FIRE_FLAG_RASTER_DEALLOC  (1 << 0)
++/*Isp reset needed due to change in ZLS format */
++#define PSB_FIRE_FLAG_NEEDS_ISP_RESET (1 << 1)
++/*These are set by Xpsb. */
++#define PSB_FIRE_FLAG_XHW_MASK        0xff000000
++/*The task has had at least one OOM and Xpsb will
++  send back messages on each fire. */
++#define PSB_FIRE_FLAG_XHW_OOM         (1 << 24)
++
++#define PSB_SCENE_ENGINE_TA        0
++#define PSB_SCENE_ENGINE_RASTER    1
++#define PSB_SCENE_NUM_ENGINES      2
++
++#define PSB_LOCKUP_RASTER          (1 << 0)
++#define PSB_LOCKUP_TA              (1 << 1)
++
++struct drm_psb_dev_info_arg {
++      uint32_t num_use_attribute_registers;
++};
++#define DRM_PSB_DEVINFO         0x01
++
++#define PSB_MODE_OPERATION_MODE_VALID 0x01
++
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_drv.c b/drivers/gpu/drm/psb/psb_drv.c
+new file mode 100644
+index 0000000..7019b73
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_drv.c
+@@ -0,0 +1,2239 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ * Copyright (c) 2008, Tungsten Graphics, Inc. Cedar Park, TX., USA.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ */
++
++#include <drm/drmP.h>
++#include <drm/drm.h>
++#include "psb_drm.h"
++#include "psb_drv.h"
++#include "psb_reg.h"
++#include "psb_intel_reg.h"
++#include "psb_intel_bios.h"
++#include "psb_msvdx.h"
++#include "lnc_topaz.h"
++#include <drm/drm_pciids.h>
++#include "psb_scene.h"
++#include "psb_powermgmt.h"
++#include <linux/cpu.h>
++#include <linux/notifier.h>
++#include <linux/spinlock.h>
++
++int drm_psb_debug;
++EXPORT_SYMBOL(drm_psb_debug);
++static int drm_psb_trap_pagefaults;
++static int drm_psb_clock_gating = 2;
++static int drm_psb_ta_mem_size = 32 * 1024;
++
++int drm_psb_disable_vsync = 1;
++int drm_psb_no_fb;
++int drm_psb_force_pipeb;
++int drm_idle_check_interval = 5;
++int drm_psb_ospm = 0;
++int drm_msvdx_pmpolicy = PSB_PMPOLICY_NOPM;
++int drm_topaz_pmpolicy = PSB_PMPOLICY_NOPM;
++
++static int psb_probe(struct pci_dev *pdev, const struct pci_device_id *ent);
++
++MODULE_PARM_DESC(debug, "Enable debug output");
++MODULE_PARM_DESC(clock_gating, "clock gating");
++MODULE_PARM_DESC(no_fb, "Disable FBdev");
++MODULE_PARM_DESC(trap_pagefaults, "Error and reset on MMU pagefaults");
++MODULE_PARM_DESC(disable_vsync, "Disable vsync interrupts");
++MODULE_PARM_DESC(force_pipeb, "Forces PIPEB to become primary fb");
++MODULE_PARM_DESC(ta_mem_size, "TA memory size in kiB");
++MODULE_PARM_DESC(ospm, "switch for ospm support");
++MODULE_PARM_DESC(msvdx_pmpolicy, "msvdx power management policy btw frames");
++MODULE_PARM_DESC(topaz_pmpolicy, "topaz power managerment policy btw frames");
++module_param_named(debug, drm_psb_debug, int, 0600);
++module_param_named(clock_gating, drm_psb_clock_gating, int, 0600);
++module_param_named(no_fb, drm_psb_no_fb, int, 0600);
++module_param_named(trap_pagefaults, drm_psb_trap_pagefaults, int, 0600);
++module_param_named(disable_vsync, drm_psb_disable_vsync, int, 0600);
++module_param_named(force_pipeb, drm_psb_force_pipeb, int, 0600);
++module_param_named(ta_mem_size, drm_psb_ta_mem_size, int, 0600);
++module_param_named(ospm, drm_psb_ospm, int, 0600);
++module_param_named(msvdx_pmpolicy, drm_msvdx_pmpolicy, int, 0600);
++module_param_named(topaz_pmpolicy, drm_topaz_pmpolicy, int, 0600);
++
++#ifndef CONFIG_X86_PAT
++#warning "Don't build this driver without PAT support!!!"
++#endif
++
++#define psb_PCI_IDS \
++    {0x8086, 0x8108, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_PSB_8108}, \
++    {0x8086, 0x8109, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_PSB_8109}, \
++    {0x8086, 0x4100, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_MRST_4100}, \
++    {0x8086, 0x4101, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_MRST_4100}, \
++    {0x8086, 0x4102, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_MRST_4100}, \
++    {0x8086, 0x4103, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_MRST_4100}, \
++    {0x8086, 0x4104, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_MRST_4100}, \
++    {0x8086, 0x4105, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_MRST_4100}, \
++    {0x8086, 0x4106, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_MRST_4100}, \
++    {0x8086, 0x4107, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_MRST_4100}, \
++    {0, 0, 0}
++                                      
++static struct pci_device_id pciidlist[] = {
++      psb_PCI_IDS
++};
++
++/*
++ * Standard IOCTLs.
++ */
++
++#define DRM_IOCTL_PSB_KMS_OFF   DRM_IO(DRM_PSB_KMS_OFF + DRM_COMMAND_BASE)
++#define DRM_IOCTL_PSB_KMS_ON    DRM_IO(DRM_PSB_KMS_ON + DRM_COMMAND_BASE)
++#define DRM_IOCTL_PSB_VT_LEAVE    DRM_IO(DRM_PSB_VT_LEAVE + DRM_COMMAND_BASE)
++#define DRM_IOCTL_PSB_VT_ENTER    DRM_IO(DRM_PSB_VT_ENTER + DRM_COMMAND_BASE)
++#define DRM_IOCTL_PSB_XHW_INIT    DRM_IOW(DRM_PSB_XHW_INIT + DRM_COMMAND_BASE, \
++                                      struct drm_psb_xhw_init_arg)
++#define DRM_IOCTL_PSB_XHW         DRM_IO(DRM_PSB_XHW + DRM_COMMAND_BASE)
++#define DRM_IOCTL_PSB_EXTENSION   DRM_IOWR(DRM_PSB_EXTENSION + DRM_COMMAND_BASE, \
++                                         union drm_psb_extension_arg)
++#define DRM_IOCTL_PSB_SIZES       DRM_IOR(DRM_PSB_SIZES + DRM_COMMAND_BASE, \
++                                        struct drm_psb_sizes_arg)
++#define DRM_IOCTL_PSB_FUSE_REG    DRM_IOWR(DRM_PSB_FUSE_REG + DRM_COMMAND_BASE, \
++                                       uint32_t)
++#define DRM_IOCTL_PSB_VBT         DRM_IOWR(DRM_PSB_VBT + DRM_COMMAND_BASE, \
++                                        struct gct_ioctl_arg)
++#define DRM_IOCTL_PSB_DC_STATE          DRM_IOW(DRM_PSB_DC_STATE + DRM_COMMAND_BASE, \
++                                      struct drm_psb_dc_state_arg)
++#define DRM_IOCTL_PSB_ADB         DRM_IOWR(DRM_PSB_ADB + DRM_COMMAND_BASE, \
++                                      uint32_t)
++#define DRM_IOCTL_PSB_MODE_OPERATION DRM_IOWR(DRM_PSB_MODE_OPERATION + DRM_COMMAND_BASE, \
++                                      struct drm_psb_mode_operation_arg)
++#define DRM_IOCTL_PSB_STOLEN_MEMORY DRM_IOWR(DRM_PSB_STOLEN_MEMORY + DRM_COMMAND_BASE, \
++                                      struct drm_psb_stolen_memory_arg)
++#define DRM_IOCTL_PSB_REGISTER_RW DRM_IOWR(DRM_PSB_REGISTER_RW + DRM_COMMAND_BASE, \
++                                      struct drm_psb_register_rw_arg)
++
++/*
++ * TTM execbuf extension.
++ */
++
++#define DRM_PSB_CMDBUF            (DRM_PSB_REGISTER_RW + 1)
++#define DRM_PSB_SCENE_UNREF       (DRM_PSB_CMDBUF + 1)
++#define DRM_IOCTL_PSB_CMDBUF      DRM_IOW(DRM_PSB_CMDBUF + DRM_COMMAND_BASE,          \
++                                        struct drm_psb_cmdbuf_arg)
++#define DRM_IOCTL_PSB_SCENE_UNREF DRM_IOW(DRM_PSB_SCENE_UNREF + DRM_COMMAND_BASE, \
++                                         struct drm_psb_scene)
++#define DRM_IOCTL_PSB_KMS_OFF   DRM_IO(DRM_PSB_KMS_OFF + DRM_COMMAND_BASE)
++#define DRM_IOCTL_PSB_KMS_ON    DRM_IO(DRM_PSB_KMS_ON + DRM_COMMAND_BASE)
++#define DRM_IOCTL_PSB_EXTENSION   DRM_IOWR(DRM_PSB_EXTENSION + DRM_COMMAND_BASE, \
++                                         union drm_psb_extension_arg)
++/*
++ * TTM placement user extension.
++ */
++
++#define DRM_PSB_PLACEMENT_OFFSET   (DRM_PSB_SCENE_UNREF + 1)
++
++#define DRM_PSB_TTM_PL_CREATE      (TTM_PL_CREATE + DRM_PSB_PLACEMENT_OFFSET)
++#define DRM_PSB_TTM_PL_REFERENCE   (TTM_PL_REFERENCE + DRM_PSB_PLACEMENT_OFFSET)
++#define DRM_PSB_TTM_PL_UNREF       (TTM_PL_UNREF + DRM_PSB_PLACEMENT_OFFSET)
++#define DRM_PSB_TTM_PL_SYNCCPU     (TTM_PL_SYNCCPU + DRM_PSB_PLACEMENT_OFFSET)
++#define DRM_PSB_TTM_PL_WAITIDLE    (TTM_PL_WAITIDLE + DRM_PSB_PLACEMENT_OFFSET)
++#define DRM_PSB_TTM_PL_SETSTATUS   (TTM_PL_SETSTATUS + DRM_PSB_PLACEMENT_OFFSET)
++
++/*
++ * TTM fence extension.
++ */
++
++#define DRM_PSB_FENCE_OFFSET       (DRM_PSB_TTM_PL_SETSTATUS + 1)
++#define DRM_PSB_TTM_FENCE_SIGNALED (TTM_FENCE_SIGNALED + DRM_PSB_FENCE_OFFSET)
++#define DRM_PSB_TTM_FENCE_FINISH   (TTM_FENCE_FINISH + DRM_PSB_FENCE_OFFSET)
++#define DRM_PSB_TTM_FENCE_UNREF    (TTM_FENCE_UNREF + DRM_PSB_FENCE_OFFSET)
++
++#define DRM_PSB_FLIP       (DRM_PSB_TTM_FENCE_UNREF + 1)      //20
++/* PSB video extension */
++#define DRM_LNC_VIDEO_GETPARAM                (DRM_PSB_FLIP + 1)
++
++#define DRM_IOCTL_PSB_TTM_PL_CREATE    \
++      DRM_IOWR(DRM_COMMAND_BASE + DRM_PSB_TTM_PL_CREATE,\
++               union ttm_pl_create_arg)
++#define DRM_IOCTL_PSB_TTM_PL_REFERENCE \
++      DRM_IOWR(DRM_COMMAND_BASE + DRM_PSB_TTM_PL_REFERENCE,\
++               union ttm_pl_reference_arg)
++#define DRM_IOCTL_PSB_TTM_PL_UNREF    \
++      DRM_IOW(DRM_COMMAND_BASE + DRM_PSB_TTM_PL_UNREF,\
++              struct ttm_pl_reference_req)
++#define DRM_IOCTL_PSB_TTM_PL_SYNCCPU    \
++      DRM_IOW(DRM_COMMAND_BASE + DRM_PSB_TTM_PL_SYNCCPU,\
++              struct ttm_pl_synccpu_arg)
++#define DRM_IOCTL_PSB_TTM_PL_WAITIDLE    \
++      DRM_IOW(DRM_COMMAND_BASE + DRM_PSB_TTM_PL_WAITIDLE,\
++              struct ttm_pl_waitidle_arg)
++#define DRM_IOCTL_PSB_TTM_PL_SETSTATUS \
++      DRM_IOWR(DRM_COMMAND_BASE + DRM_PSB_TTM_PL_SETSTATUS,\
++               union ttm_pl_setstatus_arg)
++#define DRM_IOCTL_PSB_TTM_FENCE_SIGNALED \
++      DRM_IOWR(DRM_COMMAND_BASE + DRM_PSB_TTM_FENCE_SIGNALED, \
++                union ttm_fence_signaled_arg)
++#define DRM_IOCTL_PSB_TTM_FENCE_FINISH \
++      DRM_IOWR(DRM_COMMAND_BASE + DRM_PSB_TTM_FENCE_FINISH,   \
++               union ttm_fence_finish_arg)
++#define DRM_IOCTL_PSB_TTM_FENCE_UNREF \
++      DRM_IOW(DRM_COMMAND_BASE + DRM_PSB_TTM_FENCE_UNREF,     \
++               struct ttm_fence_unref_arg)
++#define DRM_IOCTL_PSB_FLIP \
++      DRM_IOWR(DRM_COMMAND_BASE + DRM_PSB_FLIP, \
++               struct drm_psb_pageflip_arg)
++#define DRM_IOCTL_LNC_VIDEO_GETPARAM \
++      DRM_IOWR(DRM_COMMAND_BASE + DRM_LNC_VIDEO_GETPARAM, \
++               struct drm_lnc_video_getparam_arg)
++
++static int psb_vt_leave_ioctl(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv);
++static int psb_vt_enter_ioctl(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv);
++static int psb_sizes_ioctl(struct drm_device *dev, void *data,
++                         struct drm_file *file_priv);
++static int psb_fuse_reg_ioctl(struct drm_device *dev, void *data,
++                              struct drm_file *file_priv);
++static int psb_vbt_ioctl(struct drm_device *dev, void *data,
++                                struct drm_file *file_priv);
++static int psb_dc_state_ioctl(struct drm_device *dev, void * data,
++                                struct drm_file *file_priv);
++static int psb_adb_ioctl(struct drm_device *dev, void *data,
++                              struct drm_file *file_priv);
++static int psb_mode_operation_ioctl(struct drm_device *dev, void *data,
++                                      struct drm_file *file_priv);
++static int psb_stolen_memory_ioctl(struct drm_device *dev, void *data,
++                                      struct drm_file *file_priv);
++static int psb_register_rw_ioctl(struct drm_device *dev, void *data,
++                                      struct drm_file *file_priv);
++
++#define PSB_IOCTL_DEF(ioctl, func, flags) \
++      [DRM_IOCTL_NR(ioctl) - DRM_COMMAND_BASE] = {ioctl, flags, func}
++
++static struct drm_ioctl_desc psb_ioctls[] = {
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_KMS_OFF, psbfb_kms_off_ioctl,
++                    DRM_ROOT_ONLY),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_KMS_ON, psbfb_kms_on_ioctl, DRM_ROOT_ONLY),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_VT_LEAVE, psb_vt_leave_ioctl,
++                    DRM_ROOT_ONLY),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_VT_ENTER, psb_vt_enter_ioctl, DRM_ROOT_ONLY),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_XHW_INIT, psb_xhw_init_ioctl,
++                    DRM_ROOT_ONLY),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_XHW, psb_xhw_ioctl, DRM_ROOT_ONLY),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_EXTENSION, psb_extension_ioctl, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_SIZES, psb_sizes_ioctl, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_FUSE_REG, psb_fuse_reg_ioctl, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_VBT, psb_vbt_ioctl, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_DC_STATE, psb_dc_state_ioctl, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_ADB, psb_adb_ioctl, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_MODE_OPERATION, psb_mode_operation_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_STOLEN_MEMORY, psb_stolen_memory_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_REGISTER_RW, psb_register_rw_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_CMDBUF, psb_cmdbuf_ioctl, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_SCENE_UNREF, drm_psb_scene_unref_ioctl,
++                    DRM_AUTH),
++
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_PL_CREATE, psb_pl_create_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_PL_REFERENCE, psb_pl_reference_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_PL_UNREF, psb_pl_unref_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_PL_SYNCCPU, psb_pl_synccpu_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_PL_WAITIDLE, psb_pl_waitidle_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_PL_SETSTATUS, psb_pl_setstatus_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_FENCE_SIGNALED,
++                    psb_fence_signaled_ioctl, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_FENCE_FINISH, psb_fence_finish_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_TTM_FENCE_UNREF, psb_fence_unref_ioctl,
++                    DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_PSB_FLIP, psb_page_flip, DRM_AUTH),
++      PSB_IOCTL_DEF(DRM_IOCTL_LNC_VIDEO_GETPARAM, lnc_video_getparam, DRM_AUTH)
++};
++
++static int psb_max_ioctl = DRM_ARRAY_SIZE(psb_ioctls);
++
++static void get_ci_info(struct drm_psb_private *dev_priv)
++{
++      struct pci_dev *pdev;
++
++      pdev = pci_get_subsys(0x8086, 0x080b, 0, 0, NULL);
++      if (pdev == NULL) {
++              /* IF no pci_device we set size & addr to 0, no ci
++               * share buffer can be created */
++              dev_priv->ci_region_start = 0;
++              dev_priv->ci_region_size = 0;
++              printk(KERN_ERR "can't find CI device, no ci share buffer\n");
++              return;
++      }
++
++      dev_priv->ci_region_start = pci_resource_start(pdev, 1);
++      dev_priv->ci_region_size = pci_resource_len(pdev, 1);
++
++      printk(KERN_INFO "ci_region_start %x ci_region_size %d\n",
++             dev_priv->ci_region_start, dev_priv->ci_region_size);
++
++      pci_dev_put(pdev);
++
++      return;
++}
++
++static void get_rar_info(struct drm_psb_private *dev_priv)
++{
++      struct pci_dev *pdev;
++      const uint32_t msg_opcode = 0xD0;
++      const uint32_t bunit_port = 0x3;
++      const uint32_t start_addr_reg_offset = 0x10;
++      const uint32_t end_addr_reg_offset = 0x11;
++      const uint32_t msg_byte_write_enable = 0xf;
++      const uint32_t vendor_id = 0x8086;
++      const uint32_t device_id = 0x4110;
++      const uint32_t lnc_mcr_offset = 0xd0;
++      const uint32_t lnc_mdr_offset = 0xd4;
++      uint32_t start_addr_msg, end_addr_msg, start_addr, end_addr;
++
++      pdev = pci_get_subsys(vendor_id, device_id, 0, 0, NULL);
++      if (pdev == NULL) {
++              dev_priv->rar_region_start = 0;
++              dev_priv->rar_region_size = 0;
++              goto out;
++      }
++
++      /* get the start msg */
++      start_addr_msg = (msg_opcode << 24) |
++              (bunit_port << 16) |
++              (start_addr_reg_offset << 8) |
++              (msg_byte_write_enable << 4);
++
++      /* thought write/read is always success */
++      pci_write_config_dword(pdev,
++                             lnc_mcr_offset,
++                             start_addr_msg);
++      pci_read_config_dword(pdev,
++                            lnc_mdr_offset,
++                            &start_addr);
++
++      start_addr &= 0xfffffc00u;
++
++      /* get the end msg */
++      end_addr_msg = (msg_opcode << 24) |
++              (bunit_port << 16) |
++              (end_addr_reg_offset << 8) |
++              (msg_byte_write_enable << 4);
++
++      pci_write_config_dword(pdev,
++                             lnc_mcr_offset,
++                             end_addr_msg);
++      pci_read_config_dword(pdev,
++                            lnc_mdr_offset,
++                            &end_addr);
++
++      end_addr |= 0x3ffu;
++
++      dev_priv->rar_region_start = start_addr;
++      dev_priv->rar_region_size = end_addr - start_addr + 1;
++
++      printk(KERN_INFO "rar for video region [0x%x, 0x%x], size %d\n",
++             start_addr, end_addr, dev_priv->rar_region_size);
++out:
++      if (pdev != NULL)
++              pci_dev_put(pdev);
++
++      return;
++}
++
++static void psb_set_uopt(struct drm_psb_uopt *uopt)
++{
++      uopt->clock_gating = drm_psb_clock_gating;
++}
++
++static void psb_lastclose(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      if (!dev->dev_private)
++              return;
++
++      if (dev_priv->ta_mem)
++              psb_ta_mem_unref(&dev_priv->ta_mem);
++      mutex_lock(&dev_priv->cmdbuf_mutex);
++      if (dev_priv->context.buffers) {
++              vfree(dev_priv->context.buffers);
++              dev_priv->context.buffers = NULL;
++      }
++      mutex_unlock(&dev_priv->cmdbuf_mutex);
++}
++
++static void psb_do_takedown(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct ttm_bo_device *bdev = &dev_priv->bdev;
++
++
++      if (dev_priv->have_mem_rastgeom) {
++              ttm_bo_clean_mm(bdev, DRM_PSB_MEM_RASTGEOM);
++              dev_priv->have_mem_rastgeom = 0;
++      }
++      if (dev_priv->have_mem_mmu) {
++              ttm_bo_clean_mm(bdev, DRM_PSB_MEM_MMU);
++              dev_priv->have_mem_mmu = 0;
++      }
++      if (dev_priv->have_mem_aper) {
++              ttm_bo_clean_mm(bdev, DRM_PSB_MEM_APER);
++              dev_priv->have_mem_aper = 0;
++      }
++      if (dev_priv->have_tt) {
++              ttm_bo_clean_mm(bdev, TTM_PL_TT);
++              dev_priv->have_tt = 0;
++      }
++      if (dev_priv->have_vram) {
++              ttm_bo_clean_mm(bdev, TTM_PL_VRAM);
++              dev_priv->have_vram = 0;
++      }
++      if (dev_priv->have_camera) {
++              ttm_bo_clean_mm(bdev, TTM_PL_CI);
++              dev_priv->have_camera = 0;
++      }
++      if (dev_priv->have_rar) {
++              ttm_bo_clean_mm(bdev, TTM_PL_RAR);
++              dev_priv->have_rar = 0;
++      }
++
++      psb_msvdx_uninit(dev);
++
++      if (IS_MRST(dev))
++              lnc_topaz_uninit(dev);
++
++      if (dev_priv->comm) {
++              kunmap(dev_priv->comm_page);
++              dev_priv->comm = NULL;
++      }
++      if (dev_priv->comm_page) {
++              __free_page(dev_priv->comm_page);
++              dev_priv->comm_page = NULL;
++      }
++}
++
++void psb_clockgating(struct drm_psb_private *dev_priv)
++{
++      uint32_t clock_gating;
++
++      if (dev_priv->uopt.clock_gating == 1) {
++              PSB_DEBUG_INIT("Disabling clock gating.\n");
++
++              clock_gating = (_PSB_C_CLKGATECTL_CLKG_DISABLED <<
++                              _PSB_C_CLKGATECTL_2D_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_DISABLED <<
++                   _PSB_C_CLKGATECTL_ISP_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_DISABLED <<
++                   _PSB_C_CLKGATECTL_TSP_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_DISABLED <<
++                   _PSB_C_CLKGATECTL_TA_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_DISABLED <<
++                   _PSB_C_CLKGATECTL_DPM_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_DISABLED <<
++                   _PSB_C_CLKGATECTL_USE_CLKG_SHIFT);
++
++      } else if (dev_priv->uopt.clock_gating == 2) {
++              PSB_DEBUG_INIT("Enabling clock gating.\n");
++
++              clock_gating = (_PSB_C_CLKGATECTL_CLKG_AUTO <<
++                              _PSB_C_CLKGATECTL_2D_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_AUTO <<
++                   _PSB_C_CLKGATECTL_ISP_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_AUTO <<
++                   _PSB_C_CLKGATECTL_TSP_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_AUTO <<
++                   _PSB_C_CLKGATECTL_TA_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_AUTO <<
++                   _PSB_C_CLKGATECTL_DPM_CLKG_SHIFT) |
++                  (_PSB_C_CLKGATECTL_CLKG_AUTO <<
++                   _PSB_C_CLKGATECTL_USE_CLKG_SHIFT);
++      } else
++              clock_gating = PSB_RSGX32(PSB_CR_CLKGATECTL);
++
++#ifdef FIX_TG_2D_CLOCKGATE
++      clock_gating &= ~_PSB_C_CLKGATECTL_2D_CLKG_MASK;
++      clock_gating |= (_PSB_C_CLKGATECTL_CLKG_DISABLED <<
++                       _PSB_C_CLKGATECTL_2D_CLKG_SHIFT);
++#endif
++      PSB_WSGX32(clock_gating, PSB_CR_CLKGATECTL);
++      (void) PSB_RSGX32(PSB_CR_CLKGATECTL);
++}
++
++#define FB_REG06 0xD0810600
++#define FB_MIPI_DISABLE  BIT11
++#define FB_REG09 0xD0810900
++#define FB_SKU_MASK  (BIT12|BIT13|BIT14)
++#define FB_SKU_SHIFT 12
++#define FB_SKU_100 0
++#define FB_SKU_100L 1
++#define FB_SKU_83 2
++#if 1 /* FIXME remove it after PO */
++#define FB_GFX_CLK_DIVIDE_MASK  (BIT20|BIT21|BIT22)
++#define FB_GFX_CLK_DIVIDE_SHIFT 20
++#define FB_VED_CLK_DIVIDE_MASK  (BIT23|BIT24)
++#define FB_VED_CLK_DIVIDE_SHIFT 23
++#define FB_VEC_CLK_DIVIDE_MASK  (BIT25|BIT26)
++#define FB_VEC_CLK_DIVIDE_SHIFT 25
++#endif  /* FIXME remove it after PO */
++
++
++void mrst_get_fuse_settings(struct drm_psb_private *dev_priv)
++{
++      struct pci_dev *pci_root = pci_get_bus_and_slot(0, 0);
++      uint32_t fuse_value = 0;
++      uint32_t fuse_value_tmp = 0;
++
++      pci_write_config_dword(pci_root, 0xD0, FB_REG06);
++      pci_read_config_dword(pci_root, 0xD4, &fuse_value);
++
++      dev_priv->iLVDS_enable = fuse_value & FB_MIPI_DISABLE;
++
++      DRM_INFO("internal display is %s\n",
++               dev_priv->iLVDS_enable ? "LVDS display" : "MIPI display");
++
++      pci_write_config_dword(pci_root, 0xD0, FB_REG09);
++      pci_read_config_dword(pci_root, 0xD4, &fuse_value);
++
++      DRM_INFO("SKU values is 0x%x. \n", fuse_value);
++      fuse_value_tmp = (fuse_value & FB_SKU_MASK) >> FB_SKU_SHIFT;
++      
++      dev_priv->fuse_reg_value = fuse_value;
++
++      switch (fuse_value_tmp) {
++      case FB_SKU_100:
++              DRM_INFO("SKU values is SKU_100. LNC core clock is 200MHz. \n");
++              dev_priv->sku_100 = true;
++              break;
++      case FB_SKU_100L:
++              DRM_INFO("SKU values is SKU_100L. LNC core clock is 100MHz. \n");
++              dev_priv->sku_100L = true;
++              break;
++      case FB_SKU_83:
++              DRM_INFO("SKU values is SKU_83. LNC core clock is 166MHz. \n");
++              dev_priv->sku_83 = true;
++              break;
++      default:
++              DRM_ERROR("Invalid SKU values, SKU value = 0x%08x\n",
++                        fuse_value_tmp);
++      }
++
++#if 1 /* FIXME remove it after PO */
++      fuse_value_tmp = (fuse_value & FB_GFX_CLK_DIVIDE_MASK) >> FB_GFX_CLK_DIVIDE_SHIFT;
++
++      switch (fuse_value_tmp) {
++      case 0:
++              DRM_INFO("Gfx clk : core clk = 1:1. \n");
++              break;
++      case 1:
++              DRM_INFO("Gfx clk : core clk = 4:3. \n");
++              break;
++      case 2:
++              DRM_INFO("Gfx clk : core clk = 8:5. \n");
++              break;
++      case 3:
++              DRM_INFO("Gfx clk : core clk = 2:1. \n");
++              break;
++      case 4:
++              DRM_INFO("Gfx clk : core clk = 16:7. \n");
++              break;
++      case 5:
++              DRM_INFO("Gfx clk : core clk = 8:3. \n");
++              break;
++      case 6:
++              DRM_INFO("Gfx clk : core clk = 16:5. \n");
++              break;
++      case 7:
++              DRM_INFO("Gfx clk : core clk = 4:1. \n");
++              break;
++      default:
++              DRM_ERROR("Invalid GFX CLK DIVIDE values, value = 0x%08x\n",
++                        fuse_value_tmp);
++      }
++
++      fuse_value_tmp = (fuse_value & FB_VED_CLK_DIVIDE_MASK) >> FB_VED_CLK_DIVIDE_SHIFT;
++
++      switch (fuse_value_tmp) {
++      case 0:
++              DRM_INFO("Ved clk : core clk = 1:1. \n");
++              break;
++      case 1:
++              DRM_INFO("Ved clk : core clk = 4:3. \n");
++              break;
++      case 2:
++              DRM_INFO("Ved clk : core clk = 8:5. \n");
++              break;
++      case 3:
++              DRM_INFO("Ved clk : core clk = 2:1. \n");
++              break;
++      default:
++              DRM_ERROR("Invalid VED CLK DIVIDE values, value = 0x%08x\n",
++                        fuse_value_tmp);
++      }
++
++      fuse_value_tmp = (fuse_value & FB_VEC_CLK_DIVIDE_MASK) >> FB_VEC_CLK_DIVIDE_SHIFT;
++
++      switch (fuse_value_tmp) {
++      case 0:
++              DRM_INFO("Vec clk : core clk = 1:1. \n");
++              break;
++      case 1:
++              DRM_INFO("Vec clk : core clk = 4:3. \n");
++              break;
++      case 2:
++              DRM_INFO("Vec clk : core clk = 8:5. \n");
++              break;
++      case 3:
++              DRM_INFO("Vec clk : core clk = 2:1. \n");
++              break;
++      default:
++              DRM_ERROR("Invalid VEC CLK DIVIDE values, value = 0x%08x\n",
++                        fuse_value_tmp);
++      }
++#endif /* FIXME remove it after PO */
++
++      return;
++}
++
++bool mrst_get_vbt_data(struct drm_psb_private *dev_priv)
++{
++      struct mrst_vbt *pVBT = &dev_priv->vbt_data;
++      u32 platform_config_address;
++      u8 *pVBT_virtual;
++      u8 bpi;
++      void *pGCT;
++      struct pci_dev *pci_gfx_root = pci_get_bus_and_slot(0,PCI_DEVFN(2,0));
++
++      /*get the address of the platform config vbt, B0:D2:F0;0xFC */
++      pci_read_config_dword(pci_gfx_root,0xFC,&platform_config_address);
++      DRM_INFO("drm platform config address is %x\n",platform_config_address);
++
++      /* check for platform config address == 0. */
++      /* this means fw doesn't support vbt */
++
++      if(platform_config_address == 0) {
++              pVBT->Size = 0;
++              return false;
++      }
++
++      /* get the virtual address of the vbt */
++      pVBT_virtual = ioremap(platform_config_address, sizeof(*pVBT));
++
++      memcpy(pVBT, pVBT_virtual, sizeof(*pVBT));
++      iounmap(pVBT_virtual); /* Free virtual address space */
++
++      printk(KERN_ALERT "GCT Revision is %x\n",pVBT->Revision);
++      pVBT->mrst_gct = NULL;
++      pVBT->mrst_gct = ioremap(platform_config_address + sizeof(*pVBT) - 4,
++                                       pVBT->Size - sizeof(*pVBT) + 4);
++      pGCT = pVBT->mrst_gct;
++
++      switch (pVBT->Revision) {
++      case 0:
++              bpi = ((struct mrst_gct_v1 *)pGCT)->PD.BootPanelIndex;
++              dev_priv->gct_data.bpi = bpi;
++              dev_priv->gct_data.pt =
++                      ((struct mrst_gct_v1 *)pGCT)->PD.PanelType;
++              memcpy(&dev_priv->gct_data.DTD,
++                      &((struct mrst_gct_v1 *)pGCT)->panel[bpi].DTD,
++                              sizeof(struct mrst_timing_info));
++              dev_priv->gct_data.Panel_Port_Control =
++                      ((struct mrst_gct_v1 *)pGCT)->panel[bpi].Panel_Port_Control;
++              break;
++      case 1:
++              bpi = ((struct mrst_gct_v2 *)pGCT)->PD.BootPanelIndex;
++              dev_priv->gct_data.bpi = bpi;
++              dev_priv->gct_data.pt =
++                      ((struct mrst_gct_v2 *)pGCT)->PD.PanelType;
++              memcpy(&dev_priv->gct_data.DTD,
++                      &((struct mrst_gct_v2 *)pGCT)->panel[bpi].DTD,
++                              sizeof(struct mrst_timing_info));
++              dev_priv->gct_data.Panel_Port_Control =
++                      ((struct mrst_gct_v2 *)pGCT)->panel[bpi].Panel_Port_Control;
++              break;
++      default:
++              printk(KERN_ALERT "Unknown revision of GCT!\n");
++              pVBT->Size = 0;
++              return false;
++      }
++
++      return true;
++}
++
++int mrst_get_ospm_io(struct drm_psb_private *dev_priv)
++{
++      struct pci_dev *pci_root = pci_get_bus_and_slot(0, 0);
++      uint32_t ospm_base = 0;
++
++      pci_write_config_dword(pci_root, 0xD0, 0xd0047800);
++      pci_read_config_dword(pci_root, 0xD4, &ospm_base);
++
++      dev_priv->ospm_base = ospm_base & 0x0ffff;
++
++      DRM_INFO("ospm base is %x\n", dev_priv->ospm_base);
++
++      return 0;
++}
++
++static int psb_do_init(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct ttm_bo_device *bdev = &dev_priv->bdev;
++      struct psb_gtt *pg = dev_priv->pg;
++
++      uint32_t stolen_gtt;
++      uint32_t tt_start;
++      uint32_t tt_pages;
++
++      int ret = -ENOMEM;
++
++      dev_priv->ta_mem_pages =
++          PSB_ALIGN_TO(drm_psb_ta_mem_size * 1024,
++                       PAGE_SIZE) >> PAGE_SHIFT;
++      dev_priv->comm_page = alloc_page(GFP_KERNEL);
++      if (!dev_priv->comm_page)
++              goto out_err;
++
++      dev_priv->comm = kmap(dev_priv->comm_page);
++      memset((void *) dev_priv->comm, 0, PAGE_SIZE);
++
++      set_pages_uc(dev_priv->comm_page, 1);
++
++      /*
++       * Initialize sequence numbers for the different command
++       * submission mechanisms.
++       */
++
++      dev_priv->sequence[PSB_ENGINE_2D] = 0;
++      dev_priv->sequence[PSB_ENGINE_RASTERIZER] = 0;
++      dev_priv->sequence[PSB_ENGINE_TA] = 0;
++      dev_priv->sequence[PSB_ENGINE_HPRAST] = 0;
++
++      if (pg->gatt_start & 0x0FFFFFFF) {
++              DRM_ERROR("Gatt must be 256M aligned. This is a bug.\n");
++              ret = -EINVAL;
++              goto out_err;
++      }
++
++      stolen_gtt = (pg->stolen_size >> PAGE_SHIFT) * 4;
++      stolen_gtt = (stolen_gtt + PAGE_SIZE - 1) >> PAGE_SHIFT;
++      stolen_gtt =
++          (stolen_gtt < pg->gtt_pages) ? stolen_gtt : pg->gtt_pages;
++
++      dev_priv->gatt_free_offset = pg->gatt_start +
++          (stolen_gtt << PAGE_SHIFT) * 1024;
++
++      /*
++       * Insert a cache-coherent communications page in mmu space
++       * just after the stolen area. Will be used for fencing etc.
++       */
++
++      dev_priv->comm_mmu_offset = dev_priv->gatt_free_offset;
++      dev_priv->gatt_free_offset += PAGE_SIZE;
++
++      ret = psb_mmu_insert_pages(psb_mmu_get_default_pd(dev_priv->mmu),
++                                 &dev_priv->comm_page,
++                                 dev_priv->comm_mmu_offset, 1, 0, 0, 0);
++
++      if (ret)
++              goto out_err;
++
++      if (1 || drm_debug) {
++              uint32_t core_id = PSB_RSGX32(PSB_CR_CORE_ID);
++              uint32_t core_rev = PSB_RSGX32(PSB_CR_CORE_REVISION);
++              DRM_INFO("SGX core id = 0x%08x\n", core_id);
++              DRM_INFO("SGX core rev major = 0x%02x, minor = 0x%02x\n",
++                       (core_rev & _PSB_CC_REVISION_MAJOR_MASK) >>
++                       _PSB_CC_REVISION_MAJOR_SHIFT,
++                       (core_rev & _PSB_CC_REVISION_MINOR_MASK) >>
++                       _PSB_CC_REVISION_MINOR_SHIFT);
++              DRM_INFO
++                  ("SGX core rev maintenance = 0x%02x, designer = 0x%02x\n",
++                   (core_rev & _PSB_CC_REVISION_MAINTENANCE_MASK) >>
++                   _PSB_CC_REVISION_MAINTENANCE_SHIFT,
++                   (core_rev & _PSB_CC_REVISION_DESIGNER_MASK) >>
++                   _PSB_CC_REVISION_DESIGNER_SHIFT);
++      }
++
++      spin_lock_init(&dev_priv->irqmask_lock);
++      dev_priv->fence0_irq_on = 0;
++
++      tt_pages = (pg->gatt_pages < PSB_TT_PRIV0_PLIMIT) ?
++          pg->gatt_pages : PSB_TT_PRIV0_PLIMIT;
++      tt_start = dev_priv->gatt_free_offset - pg->gatt_start;
++      tt_pages -= tt_start >> PAGE_SHIFT;
++
++      dev_priv->sizes.ta_mem_size = drm_psb_ta_mem_size / 1024;
++
++      if (!ttm_bo_init_mm(bdev, TTM_PL_VRAM, 0,
++                          pg->vram_stolen_size >> PAGE_SHIFT)) {
++              dev_priv->have_vram = 1;
++              dev_priv->sizes.vram_size =
++                      pg->vram_stolen_size / (1024 * 1024);
++      }
++
++      if (IS_MRST(dev) &&
++          (dev_priv->ci_region_size != 0) &&
++          !ttm_bo_init_mm(bdev, TTM_PL_CI, 0,
++                          dev_priv->ci_region_size >> PAGE_SHIFT)) {
++              dev_priv->have_camera = 1;
++      }
++
++      /* since there is always rar region for video, it is ok */
++      if (IS_MRST(dev) &&
++          (dev_priv->rar_region_size != 0) &&
++          !ttm_bo_init_mm(bdev, TTM_PL_RAR, 0,
++                          dev_priv->rar_region_size >> PAGE_SHIFT)) {
++              dev_priv->have_rar = 1;
++      }
++
++      if (!ttm_bo_init_mm(bdev, TTM_PL_TT, tt_start >> PAGE_SHIFT,
++                          tt_pages)) {
++              dev_priv->have_tt = 1;
++              dev_priv->sizes.tt_size =
++                      (tt_pages << PAGE_SHIFT) / (1024 * 1024);
++      }
++
++      if (!ttm_bo_init_mm(bdev, DRM_PSB_MEM_MMU, 0x00000000,
++                          (pg->gatt_start - PSB_MEM_MMU_START -
++                           pg->ci_stolen_size) >> PAGE_SHIFT)) {
++              dev_priv->have_mem_mmu = 1;
++              dev_priv->sizes.mmu_size =
++                      (pg->gatt_start - PSB_MEM_MMU_START - pg->ci_stolen_size) /
++                      (1024*1024);
++      }
++
++      if (!ttm_bo_init_mm(bdev, DRM_PSB_MEM_RASTGEOM, 0x00000000,
++                          (PSB_MEM_MMU_START -
++                           PSB_MEM_RASTGEOM_START) >> PAGE_SHIFT)) {
++              dev_priv->have_mem_rastgeom = 1;
++              dev_priv->sizes.rastgeom_size =
++                      (PSB_MEM_MMU_START - PSB_MEM_RASTGEOM_START) /
++                      (1024 * 1024);
++      }
++#if 0
++      if (pg->gatt_pages > PSB_TT_PRIV0_PLIMIT) {
++              if (!ttm_bo_init_mm
++                  (bdev, DRM_PSB_MEM_APER, PSB_TT_PRIV0_PLIMIT,
++                   pg->gatt_pages - PSB_TT_PRIV0_PLIMIT, 1)) {
++                      dev_priv->have_mem_aper = 1;
++              }
++      }
++#endif
++
++      PSB_DEBUG_INIT("Init MSVDX\n");
++      psb_msvdx_init(dev);
++
++      if (IS_MRST(dev)) {
++              PSB_DEBUG_INIT("Init Topaz\n");
++              lnc_topaz_init(dev);
++      }
++
++      return 0;
++out_err:
++      psb_do_takedown(dev);
++      return ret;
++}
++
++static int psb_intel_opregion_init(struct drm_device *dev)
++{
++      struct drm_psb_private * dev_priv = dev->dev_private;
++      /*struct psb_intel_opregion * opregion = &dev_priv->opregion;*/
++      u32 opregion_phy;
++      void * base;
++      u32 * lid_state;
++
++      dev_priv->lid_state = NULL;
++      
++      pci_read_config_dword(dev->pdev, 0xfc, &opregion_phy);
++      if(opregion_phy == 0) {
++              DRM_DEBUG("Opregion not supported, won't support lid-switch\n");
++              return -ENOTSUPP;
++      }
++      DRM_DEBUG("OpRegion detected at 0x%8x\n", opregion_phy);
++      
++      base = ioremap(opregion_phy, 8*1024);
++      if(!base) {
++              return -ENOMEM;
++      }
++      
++      lid_state = base + 0x01ac;
++
++      DRM_DEBUG("Lid switch state 0x%08x\n", *lid_state);
++      
++      dev_priv->lid_state = lid_state;
++      dev_priv->lid_last_state = *lid_state;
++      return 0;
++}
++
++#if 0
++/**
++ * Get a section from BDB by section id, port from i915 driver
++ */
++static void * psb_intel_vbt_find_section(struct bdb_header * bdb, int section_id)
++{
++      u8 * base = (u8 *)bdb;
++      int index = 0;
++      u16 total, current_size;
++      u8 current_id;
++
++      index += bdb->header_size;
++      total = bdb->bdb_size;
++
++      while(index < total) {
++              current_id = *(base + index);
++              index++;
++              current_size = *((u16 *)(base + index));
++              index += 2;
++              if(current_id == section_id)
++                      return base + index;
++              index += current_size;
++      }
++      
++      return NULL;
++}
++
++static void psb_intel_vbt_parse_backlight_data(struct drm_psb_private * dev_priv, struct bdb_header * bdb)
++{
++      struct bdb_lvds_backlight * lvds_bl = NULL;
++      u8 p_type  = 0;
++      void * bl_start = NULL;
++      struct bdb_lvds_options * lvds_opts
++                      = psb_intel_vbt_find_section(bdb, BDB_LVDS_OPTIONS);
++
++      if(lvds_opts) {
++              DRM_DEBUG("lvds_options found at %p\n", lvds_opts);
++              p_type = lvds_opts->panel_type; 
++      } else {
++              DRM_DEBUG("no lvds_options\n");
++      }
++              
++      bl_start = psb_intel_vbt_find_section(bdb, BDB_LVDS_BACKLIGHT);
++      lvds_bl = (struct bdb_lvds_backlight *)(bl_start + 1) + p_type;
++      
++      dev_priv->lvds_bl = lvds_bl;
++}
++
++/**
++ * Retrieve VBT and blc data. port from i915 driver
++ */
++static int psb_get_vbt_data(struct drm_device * dev)
++{
++      struct drm_psb_private * dev_priv = dev->dev_private;
++      struct pci_dev * pdev = dev->pdev;
++      struct vbt_header * vbt = NULL;
++      struct bdb_header * bdb;
++      u8 __iomem * bios;
++
++      size_t size;
++      int i;
++      
++      /*FIXME: unmap it when driver exit*/
++      bios = pci_map_rom(pdev, &size);
++      if(!bios)
++              return -1;
++
++      for(i=0; i + 4 < size; i++) {
++              if(!memcmp(bios + i, "$VBT", 4)) {
++                      vbt = (struct vbt_header *)(bios + i);
++                      break;
++              }
++      }
++
++      if(!vbt) {
++              DRM_ERROR("VBT sigature missing\n");
++              pci_unmap_rom(pdev, bios);
++              return -1;
++      }
++
++      bdb = (struct bdb_header *)(bios + i + vbt->bdb_offset);
++
++      psb_intel_vbt_parse_backlight_data(dev_priv, bdb);
++
++      DRM_INFO("BIOS Data Block found at %p\n", bdb);
++
++      return 0;
++}
++#endif
++
++static int psb_driver_unload(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      psb_backlight_exit(); /*writes minimum value to backlight HW reg */
++
++      if (drm_core_check_feature(dev, DRIVER_MODESET)) {
++              drm_irq_uninstall(dev);
++      }
++
++      if (drm_psb_no_fb == 0)
++              psb_modeset_cleanup(dev);
++
++      if (dev_priv) {
++              struct ttm_bo_device *bdev = &dev_priv->bdev;
++
++              if(IS_POULSBO(dev))
++                      psb_lid_timer_takedown(dev_priv);
++
++              psb_watchdog_takedown(dev_priv);
++              psb_do_takedown(dev);
++              psb_xhw_takedown(dev_priv);
++              psb_scheduler_takedown(&dev_priv->scheduler);
++
++              if (dev_priv->have_mem_pds) {
++                      ttm_bo_clean_mm(bdev, DRM_PSB_MEM_PDS);
++                      dev_priv->have_mem_pds = 0;
++              }
++              if (dev_priv->have_mem_kernel) {
++                      ttm_bo_clean_mm(bdev, DRM_PSB_MEM_KERNEL);
++                      dev_priv->have_mem_kernel = 0;
++              }
++
++              if (dev_priv->pf_pd) {
++                      psb_mmu_free_pagedir(dev_priv->pf_pd);
++                      dev_priv->pf_pd = NULL;
++              }
++              if (dev_priv->mmu) {
++                      struct psb_gtt *pg = dev_priv->pg;
++
++                      down_read(&pg->sem);
++                      psb_mmu_remove_pfn_sequence(psb_mmu_get_default_pd
++                                                  (dev_priv->mmu),
++                                                  pg->gatt_start,
++                                                  pg->vram_stolen_size >>
++                                                  PAGE_SHIFT);
++                      if (pg->ci_stolen_size != 0)
++                              psb_mmu_remove_pfn_sequence(psb_mmu_get_default_pd
++                                                          (dev_priv->mmu),
++                                                          pg->gatt_start - pg->ci_stolen_size,
++                                                          pg->ci_stolen_size >>
++                                                          PAGE_SHIFT);
++                      if (pg->rar_stolen_size != 0)
++                              psb_mmu_remove_pfn_sequence(psb_mmu_get_default_pd
++                                                          (dev_priv->mmu),
++                                                          pg->gatt_start + pg->vram_stolen_size,
++                                                          pg->rar_stolen_size >>
++                                                          PAGE_SHIFT);
++                      up_read(&pg->sem);
++                      psb_mmu_driver_takedown(dev_priv->mmu);
++                      dev_priv->mmu = NULL;
++              }
++              psb_gtt_takedown(dev_priv->pg, 1);
++              if (dev_priv->scratch_page) {
++                      __free_page(dev_priv->scratch_page);
++                      dev_priv->scratch_page = NULL;
++              }
++              if (dev_priv->has_bo_device) {
++                      ttm_bo_device_release(&dev_priv->bdev);
++                      dev_priv->has_bo_device = 0;
++              }
++              if (dev_priv->has_fence_device) {
++                      ttm_fence_device_release(&dev_priv->fdev);
++                      dev_priv->has_fence_device = 0;
++              }
++              if (dev_priv->vdc_reg) {
++                      iounmap(dev_priv->vdc_reg);
++                      dev_priv->vdc_reg = NULL;
++              }
++              if (dev_priv->sgx_reg) {
++                      iounmap(dev_priv->sgx_reg);
++                      dev_priv->sgx_reg = NULL;
++              }
++              if (dev_priv->msvdx_reg) {
++                      iounmap(dev_priv->msvdx_reg);
++                      dev_priv->msvdx_reg = NULL;
++              }
++
++              if (IS_MRST(dev)) {
++                      if (dev_priv->topaz_reg) {
++                              iounmap(dev_priv->topaz_reg);
++                              dev_priv->topaz_reg = NULL;
++                      }
++              }
++
++              if (dev_priv->tdev)
++                      ttm_object_device_release(&dev_priv->tdev);
++
++              if (dev_priv->has_global)
++                      psb_ttm_global_release(dev_priv);
++
++              kfree(dev_priv);
++              dev->dev_private = NULL;
++
++              /*destory VBT data*/
++              if(IS_POULSBO(dev))
++                      psb_intel_destory_bios(dev);
++      }
++
++      powermgmt_shutdown();
++
++      return 0;
++}
++
++
++static int psb_driver_load(struct drm_device *dev, unsigned long chipset)
++{
++      struct drm_psb_private *dev_priv;
++      struct ttm_bo_device *bdev;
++      unsigned long resource_start;
++      struct psb_gtt *pg;
++      unsigned long irqflags;
++      int ret = -ENOMEM;
++
++        DRM_INFO("psb - %s\n", PSB_PACKAGE_VERSION);
++
++      if (IS_MRST(dev))
++              DRM_INFO("Run drivers on Moorestown platform!\n");
++      else
++              DRM_INFO("Run drivers on Poulsbo platform!\n");
++
++      dev_priv = kzalloc(sizeof(*dev_priv), GFP_KERNEL);
++      if (dev_priv == NULL)
++              return -ENOMEM;
++
++      dev_priv->dev = dev;
++      bdev = &dev_priv->bdev;
++
++      psb_init_ospm(dev_priv);
++
++      ret = psb_ttm_global_init(dev_priv);
++      if (unlikely(ret != 0))
++              goto out_err;
++      dev_priv->has_global = 1;
++      
++      dev_priv->tdev = ttm_object_device_init
++              (dev_priv->mem_global_ref.object, PSB_OBJECT_HASH_ORDER);
++      if (unlikely(dev_priv->tdev == NULL))
++              goto out_err;
++
++      powermgmt_init();
++
++      mutex_init(&dev_priv->temp_mem);
++      mutex_init(&dev_priv->cmdbuf_mutex);
++      mutex_init(&dev_priv->reset_mutex);
++      INIT_LIST_HEAD(&dev_priv->context.validate_list);
++      INIT_LIST_HEAD(&dev_priv->context.kern_validate_list);
++      psb_init_disallowed();
++
++#ifdef FIX_TG_16
++      atomic_set(&dev_priv->lock_2d, 0);
++      atomic_set(&dev_priv->ta_wait_2d, 0);
++      atomic_set(&dev_priv->ta_wait_2d_irq, 0);
++      atomic_set(&dev_priv->waiters_2d, 0);;
++      DRM_INIT_WAITQUEUE(&dev_priv->queue_2d);
++#else
++      mutex_init(&dev_priv->mutex_2d);
++#endif
++
++      spin_lock_init(&dev_priv->reloc_lock);
++
++      DRM_INIT_WAITQUEUE(&dev_priv->rel_mapped_queue);
++      DRM_INIT_WAITQUEUE(&dev_priv->event_2d_queue);
++
++      dev->dev_private = (void *) dev_priv;
++      dev_priv->chipset = chipset;
++      psb_set_uopt(&dev_priv->uopt);
++
++      PSB_DEBUG_GENERAL("Init watchdog and scheduler\n");
++      psb_watchdog_init(dev_priv);
++      psb_scheduler_init(dev, &dev_priv->scheduler);
++
++
++      PSB_DEBUG_INIT("Mapping MMIO\n");
++      resource_start = pci_resource_start(dev->pdev, PSB_MMIO_RESOURCE);
++
++      if (IS_MRST(dev))
++              dev_priv->msvdx_reg =
++                  ioremap(resource_start + MRST_MSVDX_OFFSET,
++                          PSB_MSVDX_SIZE);
++      else
++              dev_priv->msvdx_reg =
++                  ioremap(resource_start + PSB_MSVDX_OFFSET,
++                          PSB_MSVDX_SIZE);
++
++      if (!dev_priv->msvdx_reg)
++              goto out_err;
++
++      if (IS_MRST(dev)) {
++              dev_priv->topaz_reg =
++                  ioremap(resource_start + LNC_TOPAZ_OFFSET,
++                          LNC_TOPAZ_SIZE);
++              if (!dev_priv->topaz_reg)
++                      goto out_err;
++      }
++
++      dev_priv->vdc_reg =
++          ioremap(resource_start + PSB_VDC_OFFSET, PSB_VDC_SIZE);
++      if (!dev_priv->vdc_reg)
++              goto out_err;
++
++      if (IS_MRST(dev))
++              dev_priv->sgx_reg =
++                  ioremap(resource_start + MRST_SGX_OFFSET,
++                          PSB_SGX_SIZE);
++      else
++              dev_priv->sgx_reg =
++                  ioremap(resource_start + PSB_SGX_OFFSET, PSB_SGX_SIZE);
++
++      if (!dev_priv->sgx_reg)
++              goto out_err;
++
++      if (IS_MRST(dev)){
++              mrst_get_fuse_settings(dev_priv);
++              mrst_get_vbt_data(dev_priv);
++      } else {
++              psb_intel_opregion_init(dev);
++              psb_intel_init_bios(dev);
++      }
++
++      PSB_DEBUG_INIT("Init TTM fence and BO driver\n");
++
++      if (IS_MRST(dev))
++              mrst_get_ospm_io(dev_priv);
++
++      if (IS_MRST(dev)) {
++              get_ci_info(dev_priv);
++              get_rar_info(dev_priv);
++      }
++
++      psb_clockgating(dev_priv);
++
++      ret = psb_ttm_fence_device_init(&dev_priv->fdev);
++      if (unlikely(ret != 0))
++              goto out_err;
++
++      dev_priv->has_fence_device = 1;
++      ret = ttm_bo_device_init(bdev,
++                               dev_priv->mem_global_ref.object,
++                               &psb_ttm_bo_driver,
++                               DRM_PSB_FILE_PAGE_OFFSET);
++      if (unlikely(ret != 0))
++              goto out_err;
++      dev_priv->has_bo_device = 1;
++      ttm_lock_init(&dev_priv->ttm_lock);
++
++      ret = -ENOMEM;
++
++      dev_priv->scratch_page = alloc_page(GFP_DMA32 | __GFP_ZERO);
++      if (!dev_priv->scratch_page)
++              goto out_err;
++
++      set_pages_uc(dev_priv->scratch_page, 1);
++      
++      dev_priv->pg = psb_gtt_alloc(dev);
++      if (!dev_priv->pg)
++              goto out_err;
++
++      ret = psb_gtt_init(dev_priv->pg, 0);
++      if (ret)
++              goto out_err;
++
++      dev_priv->mmu = psb_mmu_driver_init(dev_priv->sgx_reg,
++                                      drm_psb_trap_pagefaults, 0,
++                                      dev_priv);
++      if (!dev_priv->mmu)
++              goto out_err;
++
++      pg = dev_priv->pg;
++
++      /*
++       * Make sgx MMU aware of the stolen memory area we call VRAM.
++       */
++
++      down_read(&pg->sem);
++      ret =
++          psb_mmu_insert_pfn_sequence(psb_mmu_get_default_pd
++                                      (dev_priv->mmu),
++                                      pg->stolen_base >> PAGE_SHIFT,
++                                      pg->gatt_start,
++                                      pg->vram_stolen_size >> PAGE_SHIFT, 0);
++      up_read(&pg->sem);
++      if (ret)
++              goto out_err;
++
++      /*
++       * Make sgx MMU aware of the CI stolen memory area.
++       */
++      if (dev_priv->pg->ci_stolen_size != 0) {
++              down_read(&pg->sem);
++              ret = psb_mmu_insert_pfn_sequence(psb_mmu_get_default_pd
++                                                (dev_priv->mmu),
++                                                dev_priv->ci_region_start >> PAGE_SHIFT,
++                                                pg->gatt_start - pg->ci_stolen_size,
++                                                pg->ci_stolen_size >> PAGE_SHIFT, 0);
++              up_read(&pg->sem);
++              if (ret)
++                      goto out_err;
++      }
++
++      /*
++       * Make sgx MMU aware of the rar stolen memory area.
++       */
++      if (dev_priv->pg->rar_stolen_size != 0) {
++              down_read(&pg->sem);
++              ret = psb_mmu_insert_pfn_sequence(psb_mmu_get_default_pd(dev_priv->mmu),
++                                                dev_priv->rar_region_start >> PAGE_SHIFT,
++                                                pg->gatt_start + pg->vram_stolen_size,
++                                                pg->rar_stolen_size >> PAGE_SHIFT, 0);
++              up_read(&pg->sem);
++              if (ret)
++                      goto out_err;
++      }
++
++      dev_priv->pf_pd = psb_mmu_alloc_pd(dev_priv->mmu, 1, 0);
++      if (!dev_priv->pf_pd)
++              goto out_err;
++
++      /*
++       * Make all presumably unused requestors page-fault by making them
++       * use context 1 which does not have any valid mappings.
++       */
++
++      PSB_WSGX32(0x00000000, PSB_CR_BIF_BANK0);
++      PSB_WSGX32(0x00000000, PSB_CR_BIF_BANK1);
++      PSB_RSGX32(PSB_CR_BIF_BANK1);
++
++      psb_mmu_set_pd_context(psb_mmu_get_default_pd(dev_priv->mmu), 0);
++      psb_mmu_set_pd_context(dev_priv->pf_pd, 1);
++      psb_mmu_enable_requestor(dev_priv->mmu, _PSB_MMU_ER_MASK);
++
++      psb_init_2d(dev_priv);
++
++      ret = ttm_bo_init_mm(bdev, DRM_PSB_MEM_KERNEL, 0x00000000,
++                           (PSB_MEM_PDS_START - PSB_MEM_KERNEL_START)
++                           >> PAGE_SHIFT);
++      if (ret)
++              goto out_err;
++      dev_priv->have_mem_kernel = 1;
++
++      ret = ttm_bo_init_mm(bdev, DRM_PSB_MEM_PDS, 0x00000000,
++                           (PSB_MEM_RASTGEOM_START - PSB_MEM_PDS_START)
++                           >> PAGE_SHIFT);
++      if (ret)
++              goto out_err;
++      dev_priv->have_mem_pds = 1;
++      dev_priv->sizes.pds_size =
++              (PSB_MEM_RASTGEOM_START - PSB_MEM_PDS_START) / (1024 * 1024);
++      PSB_DEBUG_INIT("Begin to init SGX/MSVDX/Topaz\n");
++
++      ret = psb_do_init(dev);
++      if (ret)
++              return ret;
++
++      ret = psb_xhw_init(dev);
++      if (ret)
++              return ret;
++
++      PSB_WSGX32(PSB_MEM_PDS_START, PSB_CR_PDS_EXEC_BASE);
++      PSB_WSGX32(PSB_MEM_RASTGEOM_START, PSB_CR_BIF_3D_REQ_BASE);
++
++      /**
++         *  Init lid switch timer.
++         *  NOTE: must do this after psb_intel_opregion_init
++         *  and psb_backlight_init
++         */
++        if(IS_POULSBO(dev) && dev_priv->lid_state) {
++                psb_lid_timer_init(dev_priv);
++        }
++
++      /*initialize the MSI for MRST*/
++      if (IS_MRST(dev)) {
++              if (pci_enable_msi(dev->pdev)) {
++                      DRM_ERROR("Enable MSI for MRST failed!\n");
++              } else {
++                      PSB_DEBUG_INIT("Enabled MSI IRQ (%d)\n",
++                                     dev->pdev->irq);
++                      /* pci_write_config_word(pdev, 0x04, 0x07); */
++              }
++      }       
++
++      //Init vblank module in DRM.  Must be done before call to drm_irq_install()
++      ret = drm_vblank_init(dev, PSB_NUM_PIPE);
++      if (ret)
++          goto out_err;
++
++      /*
++       * Install interrupt handlers prior to powering off SGX or else we will
++       * crash.
++       */
++      dev_priv->vdc_irq_mask = 0;
++      dev_priv->sgx_irq_mask = 0;
++      dev_priv->sgx2_irq_mask = 0;
++      dev_priv->pipestat[0] = 0;
++      dev_priv->pipestat[1] = 0;
++      spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++      PSB_WVDC32(0x00000000, PSB_INT_ENABLE_R);
++      PSB_WVDC32(0xFFFFFFFF, PSB_INT_MASK_R);
++      spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);
++      if (drm_core_check_feature(dev, DRIVER_MODESET))
++              drm_irq_install(dev);
++#if 0 
++      /*set SGX in low power mode*/
++      if (drm_psb_ospm && IS_MRST(dev))
++              if (psb_try_power_down_sgx(dev))
++                      PSB_DEBUG_PM("initialize SGX to low power failed\n");
++      if (IS_MRST(dev))
++              if (psb_try_power_down_msvdx(dev))
++                      PSB_DEBUG_PM("Initialize MSVDX to low power failed\n");
++      if (IS_MRST(dev)) {
++              if (psb_try_power_down_topaz(dev))
++                      PSB_DEBUG_PM("Initialize TOPAZ to low power failed\n");
++      }
++#endif
++      dev->max_vblank_count = 0xffffff; /* only 24 bits of frame count */
++
++      dev->driver->get_vblank_counter = psb_get_vblank_counter;
++
++      ret = drm_vblank_init(dev, PSB_NUM_PIPE);
++
++      if (drm_psb_no_fb == 0) {
++              psb_modeset_init(dev);
++              drm_helper_initial_config(dev);
++      }
++
++      /*must be after mrst_get_fuse_settings()*/
++      ret = psb_backlight_init(dev);
++      if (ret)
++              return ret;
++      
++      /*dri_page_flipping is set when flipping is enabled*/
++      dev_priv->dri_page_flipping = 0;
++
++      return 0;
++out_err:
++      psb_driver_unload(dev);
++      return ret;
++}
++
++int psb_driver_device_is_agp(struct drm_device *dev)
++{
++      return 0;
++}
++
++int psb_extension_ioctl(struct drm_device *dev, void *data,
++                      struct drm_file *file_priv)
++{
++      union drm_psb_extension_arg *arg = data;
++      struct drm_psb_extension_rep *rep = &arg->rep;
++
++      /*tricky fix for sgx HW access from user space when XPSB is load*/
++      static int firsttime = 1;
++      if (firsttime) {
++              firsttime = 0;
++              powermgmt_using_hw_begin(dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      }
++      if (strcmp(arg->extension, "psb_ttm_placement_alphadrop") == 0) {
++              rep->exists = 1;
++              rep->driver_ioctl_offset = DRM_PSB_PLACEMENT_OFFSET;
++              rep->sarea_offset = 0;
++              rep->major = 1;
++              rep->minor = 0;
++              rep->pl = 0;            
++              return 0;
++      }
++      if (strcmp(arg->extension, "psb_ttm_fence_alphadrop") == 0) {
++              rep->exists = 1;
++              rep->driver_ioctl_offset = DRM_PSB_FENCE_OFFSET;
++              rep->sarea_offset = 0;
++              rep->major = 1;
++              rep->minor = 0;
++              rep->pl = 0;            
++              return 0;
++      }
++      if (strcmp(arg->extension, "psb_ttm_execbuf_alphadrop") == 0) {
++              rep->exists = 1;
++              rep->driver_ioctl_offset = DRM_PSB_CMDBUF;
++              rep->sarea_offset = 0;
++              rep->major = 1;
++              rep->minor = 0;
++              rep->pl = 0;            
++              return 0;
++      }
++
++      /*return the page flipping ioctl offset*/
++      if (strcmp(arg->extension, "psb_page_flipping_alphadrop") == 0) {
++              rep->exists = 1;
++              rep->driver_ioctl_offset = DRM_PSB_FLIP;
++              rep->sarea_offset = 0;
++              rep->major = 1;
++              rep->minor = 0;
++              rep->pl = 0;            
++              return 0;
++      }
++
++      /* return the video rar offset */
++      if (strcmp(arg->extension, "lnc_video_getparam") == 0) {
++              rep->exists = 1;
++              rep->driver_ioctl_offset = DRM_LNC_VIDEO_GETPARAM;
++              rep->sarea_offset = 0;
++              rep->major = 1;
++              rep->minor = 0;
++              rep->pl = 0;
++              return 0;
++      }
++
++      rep->exists = 0;
++      return 0;
++}
++
++/*keep following code*/
++#if 0
++static void psb_display_states_restore(struct drm_device * dev)
++{
++      struct drm_crtc * crtc = NULL;
++      struct drm_connector * connector = NULL;
++      struct drm_crtc_helper_funcs * crtc_helper_funcs = NULL;
++      struct drm_encoder * encoder = NULL;
++      struct drm_encoder_helper_funcs * encoder_helper_funcs = NULL;
++      struct drm_psb_private * dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++
++      mutex_lock(&dev->mode_config.mutex);
++#if 0
++      /*Output dpms off*/
++      list_for_each_entry(encoder, &dev->mode_config.encoder_list, head) {
++              encoder_helper_funcs =
++                      (struct drm_encoder_helper_funcs *)encoder->helper_private;
++              if(encoder_helper_funcs && encoder_helper_funcs->dpms)
++                              encoder_helper_funcs->dpms(encoder, DRM_MODE_DPMS_OFF);
++      }
++
++      psb_intel_wait_for_vblank(dev);
++
++      /*CRTC dpms off*/
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              crtc_helper_funcs =
++                      (struct drm_crtc_helper_funcs *)crtc->helper_private;
++              //if(crtc_helper_funcs && crtc_helper_funcs->dpms)
++              if(drm_helper_crtc_in_use(crtc))
++                      crtc_helper_funcs->dpms(crtc, DRM_MODE_DPMS_OFF);
++      }
++
++      /*Restore CRTC states*/
++        list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++                //if(crtc->funcs && crtc->funcs->restore)
++                if(drm_helper_crtc_in_use(crtc))
++                        crtc->funcs->restore(crtc);
++        }
++#endif
++
++      /*Restore outputs states*/
++      list_for_each_entry(connector, &dev->mode_config.connector_list, head) {
++              if(connector->funcs && connector->funcs->restore)
++                      connector->funcs->restore(connector);
++      }
++
++
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              if(drm_helper_crtc_in_use(crtc))
++                      crtc->funcs->restore(crtc);
++      }
++
++      mutex_unlock(&dev->mode_config.mutex);
++
++      if(IS_MRST(dev))
++              return;
++
++      REG_WRITE(VGACNTRL, dev_priv->saveVGACNTRL);
++      REG_WRITE(VCLK_DIVISOR_VGA0, dev_priv->saveVCLK_DIVISOR_VGA0);
++      REG_WRITE(VCLK_DIVISOR_VGA1, dev_priv->saveVCLK_DIVISOR_VGA1);
++      REG_WRITE(VCLK_POST_DIV, dev_priv->saveVCLK_POST_DIV);
++
++      /*TODO: SWF registers restore*/ 
++}
++
++static void psb_display_states_save(struct drm_device * dev)
++{
++      struct drm_crtc * crtc = NULL;
++      struct drm_connector * connector = NULL;
++      struct drm_psb_private * dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++
++      mutex_lock(&dev->mode_config.mutex);
++        /*Save output states*/
++        list_for_each_entry(connector, &dev->mode_config.connector_list, head) {
++                if(connector->funcs && connector->funcs->save)
++                        connector->funcs->save(connector);
++        }
++
++#if 1
++      /*Restore CRTC states*/
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              //if(crtc->funcs && crtc->funcs->save)
++              if(drm_helper_crtc_in_use(crtc))
++                      crtc->funcs->save(crtc);
++      }
++#endif
++      
++      mutex_unlock(&dev->mode_config.mutex);
++
++      if(IS_MRST(dev))
++              return;
++
++      dev_priv->saveVCLK_DIVISOR_VGA0 = REG_READ(VCLK_DIVISOR_VGA0);
++      dev_priv->saveVCLK_DIVISOR_VGA1 = REG_READ(VCLK_DIVISOR_VGA1);
++      dev_priv->saveVCLK_POST_DIV = REG_READ(VCLK_POST_DIV);
++      dev_priv->saveVGACNTRL = REG_READ(VGACNTRL);
++      
++      /*TODO: save SWF here if necessary*/
++}
++#endif
++
++static int psb_vt_leave_ioctl(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct ttm_bo_device *bdev = &dev_priv->bdev;
++      struct ttm_mem_type_manager *man;
++      int clean;
++      int ret;
++
++      ret = ttm_write_lock(&dev_priv->ttm_lock, 1,
++                           psb_fpriv(file_priv)->tfile);
++      if (unlikely(ret != 0))
++              return ret;
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      
++      /*
++       * Clean VRAM and TT for fbdev.
++       */
++
++      ret = ttm_bo_evict_mm(&dev_priv->bdev, TTM_PL_VRAM);
++      if (unlikely(ret != 0))
++              goto out_unlock;
++
++      man = &bdev->man[TTM_PL_VRAM];
++      spin_lock(&bdev->lru_lock);
++      clean = drm_mm_clean(&man->manager);
++      spin_unlock(&bdev->lru_lock);
++      if (unlikely(!clean))
++              DRM_INFO("Notice: VRAM was not clean after VT switch, if you are running fbdev please ignore.\n");
++
++      ret = ttm_bo_evict_mm(&dev_priv->bdev, TTM_PL_TT);
++      if (unlikely(ret != 0))
++              goto out_unlock;
++
++      man = &bdev->man[TTM_PL_TT];
++      spin_lock(&bdev->lru_lock);
++      clean = drm_mm_clean(&man->manager);
++      spin_unlock(&bdev->lru_lock);
++      if (unlikely(!clean))
++              DRM_INFO("Warning: GATT was not clean after VT switch.\n");
++
++      ttm_bo_swapout_all(&dev_priv->bdev);
++
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++                      schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return 0;
++out_unlock:   
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++                      schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      (void) ttm_write_unlock(&dev_priv->ttm_lock,
++                              psb_fpriv(file_priv)->tfile);
++      return ret;
++}
++              
++static int psb_vt_enter_ioctl(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      return ttm_write_unlock(&dev_priv->ttm_lock,
++                              psb_fpriv(file_priv)->tfile);
++}
++
++static int psb_sizes_ioctl(struct drm_device *dev, void *data,
++                         struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct drm_psb_sizes_arg *arg =
++              (struct drm_psb_sizes_arg *) data;
++
++      *arg = dev_priv->sizes;
++      return 0;
++}
++
++static int psb_fuse_reg_ioctl(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      uint32_t *arg = data;
++
++      *arg = dev_priv->fuse_reg_value;
++      return 0;
++}
++static int psb_vbt_ioctl(struct drm_device *dev, void *data,
++                      struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct gct_ioctl_arg *pGCT = data;
++
++      memcpy(pGCT, &dev_priv->gct_data, sizeof(*pGCT));
++
++      return 0;
++}
++
++static int psb_dc_state_ioctl(struct drm_device *dev, void * data,
++                              struct drm_file *file_priv)
++{
++      uint32_t flags;
++      uint32_t obj_id;
++      struct drm_mode_object * obj;
++      struct drm_connector * connector;
++      struct drm_crtc * crtc;
++      struct drm_psb_dc_state_arg * arg =
++              (struct drm_psb_dc_state_arg *)data;
++      
++      if(IS_MRST(dev))
++              return 0;
++      
++      flags = arg->flags;
++      obj_id = arg->obj_id;
++
++      if(flags & PSB_DC_CRTC_MASK) {
++              obj = drm_mode_object_find(dev, obj_id,
++                              DRM_MODE_OBJECT_CRTC);
++              if(! obj) {
++                      DRM_DEBUG("Invalid CRTC object.\n");
++                      return -EINVAL;
++              }
++              
++              crtc = obj_to_crtc(obj);
++
++              mutex_lock(&dev->mode_config.mutex);
++              if(drm_helper_crtc_in_use(crtc)) {
++                      if(flags & PSB_DC_CRTC_SAVE)
++                              crtc->funcs->save(crtc);
++                      else
++                              crtc->funcs->restore(crtc);
++              }
++              mutex_unlock(&dev->mode_config.mutex);
++      
++              return 0;
++      } else if (flags & PSB_DC_OUTPUT_MASK) {
++              obj = drm_mode_object_find(dev, obj_id,
++                              DRM_MODE_OBJECT_CONNECTOR);
++              if(! obj) {
++                      DRM_DEBUG("Invalid connector id.\n");
++                      return -EINVAL;
++              }
++              
++              connector = obj_to_connector(obj);
++              if(flags & PSB_DC_OUTPUT_SAVE)
++                      connector->funcs->save(connector);
++              else
++                      connector->funcs->restore(connector);
++
++              return 0;
++      }
++
++      DRM_DEBUG("Bad flags 0x%x\n", flags);
++      return -EINVAL;
++}
++
++static int psb_adb_ioctl(struct drm_device *dev, void *data,
++                      struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      uint32_t *arg = data;
++      struct backlight_device bd;
++      dev_priv->blc_adj1 = *arg;
++#ifdef CONFIG_BACKLIGHT_CLASS_DEVICE
++      bd.props.brightness = psb_get_brightness(&bd);
++      psb_set_brightness(&bd);
++#endif
++      return 0;
++}
++
++static int psb_mode_operation_ioctl(struct drm_device *dev, void *data,
++                              struct drm_file * file_priv)
++{
++      uint32_t obj_id;
++      uint16_t op;
++      struct drm_mode_modeinfo * umode;
++      struct drm_display_mode * mode;
++      struct drm_psb_mode_operation_arg * arg;
++      struct drm_mode_object * obj;
++      struct drm_connector * connector;
++      struct drm_connector_helper_funcs * connector_funcs;
++      int ret = 0;
++      int resp = MODE_OK;
++
++      if (IS_MRST(dev))
++              return 0;
++
++      arg = (struct drm_psb_mode_operation_arg *)data;
++      obj_id = arg->obj_id;
++      op = arg->operation;
++      umode = &arg->mode;
++
++      mutex_lock(&dev->mode_config.mutex);
++
++      obj = drm_mode_object_find(dev, obj_id, DRM_MODE_OBJECT_CONNECTOR);
++      if(!obj) {
++              ret = - EINVAL;
++              goto mode_op_out;
++      }
++
++      connector = obj_to_connector(obj);
++
++      mode = drm_mode_create(dev);
++      if(!mode) {
++              ret = -ENOMEM;
++              goto mode_op_out;
++      }
++      
++      //drm_crtc_convert_umode(mode, umode);
++      {
++              mode->clock = umode->clock;
++              mode->hdisplay = umode->hdisplay;
++              mode->hsync_start = umode->hsync_start;
++              mode->hsync_end = umode->hsync_end;
++              mode->htotal = umode->htotal;
++              mode->hskew = umode->hskew;
++              mode->vdisplay = umode->vdisplay;
++              mode->vsync_start = umode->vsync_start;
++              mode->vsync_end = umode->vsync_end;
++              mode->vtotal = umode->vtotal;
++              mode->vscan = umode->vscan;
++              mode->vrefresh = umode->vrefresh;
++              mode->flags = umode->flags;
++              mode->type = umode->type;
++              strncpy(mode->name, umode->name, DRM_DISPLAY_MODE_LEN);
++                      mode->name[DRM_DISPLAY_MODE_LEN-1] = 0;
++      }
++      
++      connector_funcs = (struct drm_connector_helper_funcs *)
++                              connector->helper_private;      
++      
++      switch(op) {
++              case PSB_MODE_OPERATION_MODE_VALID:
++                      if(connector_funcs->mode_valid) {
++                              resp = connector_funcs->mode_valid(connector, mode);
++                              arg->data = (void *)resp;
++                      }
++                      break;
++              default:
++                      DRM_DEBUG("Unsupported psb mode operation");
++                      ret = -EOPNOTSUPP;
++                      goto mode_op_err;
++      }
++
++mode_op_err:
++      drm_mode_destroy(dev, mode);
++mode_op_out:
++      mutex_unlock(&dev->mode_config.mutex);
++      return ret;     
++}
++
++static int psb_stolen_memory_ioctl(struct drm_device *dev, void *data,
++                                 struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct drm_psb_stolen_memory_arg *arg = data;
++
++      arg->base = dev_priv->pg->stolen_base;
++      arg->size = dev_priv->pg->vram_stolen_size;
++
++      return 0;
++}
++
++static int psb_register_rw_ioctl(struct drm_device *dev, void *data,
++                               struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct drm_psb_register_rw_arg *arg = data;
++
++      if (arg->display_write_mask != 0) {
++              if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, arg->b_force_hw_on)) {
++                      if (arg->display_write_mask & REGRWBITS_PFIT_CONTROLS)
++                              PSB_WVDC32(arg->display.pfit_controls, PFIT_CONTROL);
++                      if (arg->display_write_mask & REGRWBITS_PFIT_AUTOSCALE_RATIOS)
++                              PSB_WVDC32(arg->display.pfit_autoscale_ratios, PFIT_AUTO_RATIOS);
++                      if (arg->display_write_mask & REGRWBITS_PFIT_PROGRAMMED_SCALE_RATIOS)
++                              PSB_WVDC32(arg->display.pfit_programmed_scale_ratios, PFIT_PGM_RATIOS);
++                      if (arg->display_write_mask & REGRWBITS_PIPEASRC)
++                              PSB_WVDC32(arg->display.pipeasrc, PIPEASRC);
++                      if (arg->display_write_mask & REGRWBITS_PIPEBSRC)
++                              PSB_WVDC32(arg->display.pipebsrc, PIPEBSRC);
++                      if (arg->display_write_mask & REGRWBITS_VTOTAL_A)
++                              PSB_WVDC32(arg->display.vtotal_a, VTOTAL_A);
++                      if (arg->display_write_mask & REGRWBITS_VTOTAL_B)
++                              PSB_WVDC32(arg->display.vtotal_b, VTOTAL_B);
++                      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++              } else {
++                      if (arg->display_write_mask & REGRWBITS_PFIT_CONTROLS)
++                              dev_priv->savePFIT_CONTROL = arg->display.pfit_controls;
++                      if (arg->display_write_mask & REGRWBITS_PFIT_AUTOSCALE_RATIOS)
++                              dev_priv->savePFIT_AUTO_RATIOS = arg->display.pfit_autoscale_ratios;
++                      if (arg->display_write_mask & REGRWBITS_PFIT_PROGRAMMED_SCALE_RATIOS)
++                              dev_priv->savePFIT_PGM_RATIOS = arg->display.pfit_programmed_scale_ratios;
++                      if (arg->display_write_mask & REGRWBITS_PIPEASRC)
++                              dev_priv->savePIPEASRC = arg->display.pipeasrc;
++                      if (arg->display_write_mask & REGRWBITS_PIPEBSRC)
++                              dev_priv->savePIPEBSRC = arg->display.pipebsrc;
++                      if (arg->display_write_mask & REGRWBITS_VTOTAL_A)
++                              dev_priv->saveVTOTAL_A = arg->display.vtotal_a;
++                      if (arg->display_write_mask & REGRWBITS_VTOTAL_B)
++                              dev_priv->saveVTOTAL_B = arg->display.vtotal_b;
++              }
++      }
++
++      if (arg->display_read_mask != 0) {
++              if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, arg->b_force_hw_on)) {
++                      if (arg->display_read_mask & REGRWBITS_PFIT_CONTROLS)
++                              arg->display.pfit_controls = PSB_RVDC32(PFIT_CONTROL);
++                      if (arg->display_read_mask & REGRWBITS_PFIT_AUTOSCALE_RATIOS)
++                              arg->display.pfit_autoscale_ratios = PSB_RVDC32(PFIT_AUTO_RATIOS);
++                      if (arg->display_read_mask & REGRWBITS_PFIT_PROGRAMMED_SCALE_RATIOS)
++                              arg->display.pfit_programmed_scale_ratios = PSB_RVDC32(PFIT_PGM_RATIOS);
++                      if (arg->display_read_mask & REGRWBITS_PIPEASRC)
++                              arg->display.pipeasrc = PSB_RVDC32(PIPEASRC);
++                      if (arg->display_read_mask & REGRWBITS_PIPEBSRC)
++                              arg->display.pipebsrc = PSB_RVDC32(PIPEBSRC);
++                      if (arg->display_read_mask & REGRWBITS_VTOTAL_A)
++                              arg->display.vtotal_a = PSB_RVDC32(VTOTAL_A);
++                      if (arg->display_read_mask & REGRWBITS_VTOTAL_B)
++                              arg->display.vtotal_b = PSB_RVDC32(VTOTAL_B);
++                      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++              } else {
++                      if (arg->display_read_mask & REGRWBITS_PFIT_CONTROLS)
++                              arg->display.pfit_controls = dev_priv->savePFIT_CONTROL;
++                      if (arg->display_read_mask & REGRWBITS_PFIT_AUTOSCALE_RATIOS)
++                              arg->display.pfit_autoscale_ratios = dev_priv->savePFIT_AUTO_RATIOS;
++                      if (arg->display_read_mask & REGRWBITS_PFIT_PROGRAMMED_SCALE_RATIOS)
++                              arg->display.pfit_programmed_scale_ratios = dev_priv->savePFIT_PGM_RATIOS;
++                      if (arg->display_read_mask & REGRWBITS_PIPEASRC)
++                              arg->display.pipeasrc = dev_priv->savePIPEASRC;
++                      if (arg->display_read_mask & REGRWBITS_PIPEBSRC)
++                              arg->display.pipebsrc = dev_priv->savePIPEBSRC;
++                      if (arg->display_read_mask & REGRWBITS_VTOTAL_A)
++                              arg->display.vtotal_a = dev_priv->saveVTOTAL_A;
++                      if (arg->display_read_mask & REGRWBITS_VTOTAL_B)
++                              arg->display.vtotal_b = dev_priv->saveVTOTAL_B;
++              }
++      }
++
++      if (arg->overlay_write_mask != 0) {
++              if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, arg->b_force_hw_on)) {
++                      if (arg->overlay_write_mask & OV_REGRWBITS_OGAM_ALL) {
++                              PSB_WVDC32(arg->overlay.OGAMC5, OV_OGAMC5);
++                              PSB_WVDC32(arg->overlay.OGAMC4, OV_OGAMC4);
++                              PSB_WVDC32(arg->overlay.OGAMC3, OV_OGAMC3);
++                              PSB_WVDC32(arg->overlay.OGAMC2, OV_OGAMC2);
++                              PSB_WVDC32(arg->overlay.OGAMC1, OV_OGAMC1);
++                              PSB_WVDC32(arg->overlay.OGAMC0, OV_OGAMC0);
++                      }
++                      if (arg->overlay_write_mask & OV_REGRWBITS_OVADD) {
++                              PSB_WVDC32(arg->overlay.OVADD, OV_OVADD);
++                      }
++                      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++              } else {
++                      if (arg->overlay_write_mask & OV_REGRWBITS_OGAM_ALL) {
++                              dev_priv->saveOV_OGAMC5 = arg->overlay.OGAMC5;
++                              dev_priv->saveOV_OGAMC4 = arg->overlay.OGAMC4;
++                              dev_priv->saveOV_OGAMC3 = arg->overlay.OGAMC3;
++                              dev_priv->saveOV_OGAMC2 = arg->overlay.OGAMC2;
++                              dev_priv->saveOV_OGAMC1 = arg->overlay.OGAMC1;
++                              dev_priv->saveOV_OGAMC0 = arg->overlay.OGAMC0;
++                      }
++                      if (arg->overlay_write_mask & OV_REGRWBITS_OVADD)
++                              dev_priv->saveOV_OVADD = arg->overlay.OVADD;
++              }
++      }
++
++      if (arg->overlay_read_mask != 0) {
++              if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, arg->b_force_hw_on)) {
++                      if (arg->overlay_read_mask & OV_REGRWBITS_OGAM_ALL) {
++                              arg->overlay.OGAMC5 = PSB_RVDC32(OV_OGAMC5);
++                              arg->overlay.OGAMC4 = PSB_RVDC32(OV_OGAMC4);
++                              arg->overlay.OGAMC3 = PSB_RVDC32(OV_OGAMC3);
++                              arg->overlay.OGAMC2 = PSB_RVDC32(OV_OGAMC2);
++                              arg->overlay.OGAMC1 = PSB_RVDC32(OV_OGAMC1);
++                              arg->overlay.OGAMC0 = PSB_RVDC32(OV_OGAMC0);
++                      }
++                      if (arg->overlay_read_mask & OV_REGRWBITS_OVADD)
++                              arg->overlay.OVADD = PSB_RVDC32(OV_OVADD);
++                      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++              } else {
++                      if (arg->overlay_read_mask & OV_REGRWBITS_OGAM_ALL) {
++                              arg->overlay.OGAMC5 = dev_priv->saveOV_OGAMC5;
++                              arg->overlay.OGAMC4 = dev_priv->saveOV_OGAMC4;
++                              arg->overlay.OGAMC3 = dev_priv->saveOV_OGAMC3;
++                              arg->overlay.OGAMC2 = dev_priv->saveOV_OGAMC2;
++                              arg->overlay.OGAMC1 = dev_priv->saveOV_OGAMC1;
++                              arg->overlay.OGAMC0 = dev_priv->saveOV_OGAMC0;
++                      }
++                      if (arg->overlay_read_mask & OV_REGRWBITS_OVADD)
++                              arg->overlay.OVADD = dev_priv->saveOV_OVADD;
++              }
++      }
++
++      return 0;
++}
++
++/* always available as we are SIGIO'd */
++static unsigned int psb_poll(struct file *filp,
++                           struct poll_table_struct *wait)
++{
++      return POLLIN | POLLRDNORM;
++}
++
++int psb_driver_open(struct drm_device *dev, struct drm_file *priv)
++{
++      return 0;
++}
++
++static long psb_unlocked_ioctl(struct file *filp, unsigned int cmd,
++                             unsigned long arg)
++{
++      struct drm_file *file_priv = filp->private_data;
++      struct drm_device *dev = file_priv->minor->dev;
++      unsigned int nr = DRM_IOCTL_NR(cmd);
++      long ret;
++
++      /*
++       * The driver private ioctls and TTM ioctls should be
++       * thread-safe.
++       */
++
++      if ((nr >= DRM_COMMAND_BASE) && (nr < DRM_COMMAND_END)
++          && (nr < DRM_COMMAND_BASE + dev->driver->num_ioctls)) {
++              struct drm_ioctl_desc *ioctl = &psb_ioctls[nr - DRM_COMMAND_BASE];
++
++              if (unlikely(ioctl->cmd != cmd)) {
++                      DRM_ERROR("Invalid drm command %d\n",
++                                nr - DRM_COMMAND_BASE);
++                      return -EINVAL;
++              }
++
++              return drm_unlocked_ioctl(filp, cmd, arg);
++      }
++      /*
++       * Not all old drm ioctls are thread-safe.
++       */
++
++      lock_kernel();
++      ret = drm_unlocked_ioctl(filp, cmd, arg);
++      unlock_kernel();
++      return ret;
++}
++
++static int psb_ospm_read(char *buf, char **start, off_t offset, int request,
++                       int *eof, void *data)
++{
++      struct drm_minor *minor = (struct drm_minor *) data;
++      struct drm_device *dev = minor->dev;
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      int len = 0;
++#ifdef OSPM_STAT      
++      unsigned long d0 = 0;
++      unsigned long d0i3 = 0;
++      unsigned long d3 = 0;
++#endif
++
++      *start = &buf[offset];
++      *eof = 0;
++      DRM_PROC_PRINT("D0i3:%s   ", drm_psb_ospm ? "enabled" : "disabled");
++
++#ifdef OSPM_STAT      
++      switch (dev_priv->graphics_state) {
++      case PSB_PWR_STATE_D0:
++              DRM_PROC_PRINT("GFX:%s\n", "D0");
++              break;
++      case PSB_PWR_STATE_D0i3:
++              DRM_PROC_PRINT("GFX:%s\n", "D0i3");
++              break;
++      case PSB_PWR_STATE_D3:
++              DRM_PROC_PRINT("GFX:%s\n", "D3");
++              break;
++      default:
++              DRM_PROC_PRINT("GFX:%s\n", "unknown");
++      }
++
++      d0 = dev_priv->gfx_d0_time * 1000 / HZ;
++      d0i3 = dev_priv->gfx_d0i3_time * 1000 / HZ;
++      d3 = dev_priv->gfx_d3_time * 1000 / HZ;
++      switch (dev_priv->graphics_state) {
++      case PSB_PWR_STATE_D0:
++              d0 += (jiffies - dev_priv->gfx_last_mode_change) * 1000 / HZ;
++              break;
++      case PSB_PWR_STATE_D0i3:
++              d0i3 += (jiffies - dev_priv->gfx_last_mode_change) * 1000 / HZ;
++              break;
++      case PSB_PWR_STATE_D3:
++              d3 += (jiffies - dev_priv->gfx_last_mode_change) * 1000 / HZ;
++              break;
++      }       
++      DRM_PROC_PRINT("GFX(cnt/ms):\n");
++      DRM_PROC_PRINT("D0:%lu/%lu, D0i3:%lu/%lu, D3:%lu/%lu \n",
++              dev_priv->gfx_d0_cnt, d0, dev_priv->gfx_d0i3_cnt, d0i3,
++              dev_priv->gfx_d3_cnt, d3);
++#endif
++      if (len > request + offset)
++              return request;
++      *eof = 1;
++      return len - offset;
++}
++
++/* When a client dies:
++ *    - Check for and clean up flipped page state
++ */
++void psb_driver_preclose(struct drm_device *dev, struct drm_file *priv)
++{
++      unsigned long irqflags;
++      int pipe, i;
++      if (dev->dev_private) {
++              struct drm_psb_private *dev_priv = dev->dev_private;
++              if (dev_priv->dri_page_flipping && dev_priv->current_page == 1) {
++                      for (pipe=0; pipe<2; pipe++) {
++                              if (dev_priv->pipe_active[pipe] == 1) {
++                                      dev_priv->flip_start[pipe] = dev_priv->saved_start[pipe];
++                                      dev_priv->flip_offset[pipe] = dev_priv->saved_offset[pipe];
++                                      dev_priv->flip_stride[pipe] = dev_priv->saved_stride[pipe];
++                                      psb_flip_set_base(dev_priv, pipe);
++                              }       
++                      }
++                      dev_priv->dri_page_flipping = 0;
++                      dev_priv->current_page = 0;
++              }
++      
++              drm_psb_disable_vsync = 1;
++              dev_priv->vdc_irq_mask &= ~(_PSB_VSYNC_PIPEA_FLAG | _PSB_VSYNC_PIPEB_FLAG);
++              spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++              PSB_WVDC32(dev_priv->vdc_irq_mask, PSB_INT_ENABLE_R);
++              spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);      
++
++              for (i = 0; i < dev->num_crtcs; i++) {
++                      if (atomic_read(&dev->vblank_refcount[i]) == 0 &&
++                              dev->vblank_enabled[i]) {
++                              DRM_DEBUG("disabling vblank on crtc %d\n", i);
++                              dev->last_vblank[i] =
++                                      dev->driver->get_vblank_counter(dev, i);
++                              dev->vblank_enabled[i] = 0;
++                      }
++              }
++      }
++}
++
++static void psb_remove(struct pci_dev *pdev)
++{
++      struct drm_device *dev = pci_get_drvdata(pdev);
++      drm_put_dev(dev);
++}
++
++static int psb_proc_init(struct drm_minor *minor)
++{
++      struct proc_dir_entry *ent;
++      ent = create_proc_read_entry(OSPM_PROC_ENTRY, 0, minor->proc_root,
++              psb_ospm_read, minor);
++      if (ent)
++              return 0;
++      else
++              return -1;
++}
++
++static void psb_proc_cleanup(struct drm_minor *minor)
++{
++      remove_proc_entry(OSPM_PROC_ENTRY, minor->proc_root);
++      return;
++}
++
++static struct drm_driver driver = {
++      .driver_features = DRIVER_HAVE_IRQ | DRIVER_IRQ_SHARED | DRIVER_IRQ_VBL | DRIVER_MODESET,
++      .load = psb_driver_load,
++      .unload = psb_driver_unload,
++
++      .get_reg_ofs = drm_core_get_reg_ofs,
++      .ioctls = psb_ioctls,
++      .device_is_agp = psb_driver_device_is_agp,
++      .irq_preinstall = psb_irq_preinstall,
++      .irq_postinstall = psb_irq_postinstall,
++      .irq_uninstall = psb_irq_uninstall,
++      .irq_handler = psb_irq_handler,
++      .enable_vblank = psb_enable_vblank,
++      .disable_vblank = psb_disable_vblank,
++      .firstopen = NULL,
++      .lastclose = psb_lastclose,
++      .open = psb_driver_open,
++      .proc_init = psb_proc_init,
++      .proc_cleanup = psb_proc_cleanup,
++      .preclose = psb_driver_preclose,        
++      .fops = {
++               .owner = THIS_MODULE,
++               .open = psb_open,
++               .release = psb_release,
++               .unlocked_ioctl = psb_unlocked_ioctl,
++               .mmap = psb_mmap,
++               .poll = psb_poll,
++               .fasync = drm_fasync,
++               },
++      .pci_driver = {
++                     .name = DRIVER_NAME,
++                     .id_table = pciidlist,
++                     .resume = powermgmt_resume,
++                     .suspend = powermgmt_suspend,
++                     .probe = psb_probe,
++                     .remove = psb_remove,
++                     },
++      .name = DRIVER_NAME,
++      .desc = DRIVER_DESC,
++      .date = PSB_DRM_DRIVER_DATE,
++      .major = PSB_DRM_DRIVER_MAJOR,
++      .minor = PSB_DRM_DRIVER_MINOR,
++      .patchlevel = PSB_DRM_DRIVER_PATCHLEVEL
++};
++
++static int psb_probe(struct pci_dev *pdev, const struct pci_device_id *ent)
++{
++      return drm_get_dev(pdev, ent, &driver);
++}
++
++static int __init psb_init(void)
++{
++      driver.num_ioctls = psb_max_ioctl;
++      return drm_init(&driver);
++}
++
++static void __exit psb_exit(void)
++{
++      drm_exit(&driver);
++}
++
++late_initcall(psb_init);
++module_exit(psb_exit);
++
++MODULE_AUTHOR(DRIVER_AUTHOR);
++MODULE_DESCRIPTION(DRIVER_DESC);
++MODULE_LICENSE("GPL");
+diff --git a/drivers/gpu/drm/psb/psb_drv.h b/drivers/gpu/drm/psb/psb_drv.h
+new file mode 100644
+index 0000000..9b2c4e1
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_drv.h
+@@ -0,0 +1,1224 @@
++/**************************************************************************
++ *Copyright (c) 2007-2008, Intel Corporation.
++ *All Rights Reserved.
++ *
++ *This program is free software; you can redistribute it and/or modify it
++ *under the terms and conditions of the GNU General Public License,
++ *version 2, as published by the Free Software Foundation.
++ *
++ *This program is distributed in the hope it will be useful, but WITHOUT
++ *ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ *FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ *more details.
++ *
++ *You should have received a copy of the GNU General Public License along with
++ *this program; if not, write to the Free Software Foundation, Inc.,
++ *51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ *Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ *develop this driver.
++ *
++ **************************************************************************/
++/*
++ */
++#ifndef _PSB_DRV_H_
++#define _PSB_DRV_H_
++
++#include <drm/drmP.h>
++#include "psb_drm.h"
++#include "psb_reg.h"
++#include "psb_schedule.h"
++#include "psb_intel_drv.h"
++#include "psb_hotplug.h"
++#include "psb_dpst.h"
++#include "ttm/ttm_object.h"
++#include "ttm/ttm_fence_driver.h"
++#include "ttm/ttm_bo_driver.h"
++#include "ttm/ttm_lock.h"
++
++extern struct ttm_bo_driver psb_ttm_bo_driver;
++
++enum {
++      CHIP_PSB_8108 = 0,
++      CHIP_PSB_8109 = 1,
++      CHIP_MRST_4100 = 2
++};
++
++/*
++ *Hardware bugfixes
++ */
++
++#define FIX_TG_16
++#define FIX_TG_2D_CLOCKGATE
++#define OSPM_STAT
++
++#define DRIVER_NAME "psb"
++#define DRIVER_DESC "drm driver for the Intel GMA500"
++#define DRIVER_AUTHOR "Tungsten Graphics Inc."
++#define OSPM_PROC_ENTRY "ospm"
++
++#define PSB_DRM_DRIVER_DATE "2009-03-10"
++#define PSB_DRM_DRIVER_MAJOR 8
++#define PSB_DRM_DRIVER_MINOR 1
++#define PSB_DRM_DRIVER_PATCHLEVEL 0
++
++/*
++ *TTM driver private offsets.
++ */
++
++#define DRM_PSB_FILE_PAGE_OFFSET (0x100000000ULL >> PAGE_SHIFT)
++
++#define PSB_OBJECT_HASH_ORDER 13
++#define PSB_FILE_OBJECT_HASH_ORDER 12
++#define PSB_BO_HASH_ORDER 12
++
++#define PSB_VDC_OFFSET           0x00000000
++#define PSB_VDC_SIZE             0x000080000
++#define MRST_MMIO_SIZE           0x0000C0000
++#define PSB_SGX_SIZE             0x8000
++#define PSB_SGX_OFFSET           0x00040000
++#define MRST_SGX_OFFSET          0x00080000
++#define PSB_MMIO_RESOURCE        0
++#define PSB_GATT_RESOURCE        2
++#define PSB_GTT_RESOURCE         3
++#define PSB_GMCH_CTRL            0x52
++#define PSB_BSM                  0x5C
++#define _PSB_GMCH_ENABLED        0x4
++#define PSB_PGETBL_CTL           0x2020
++#define _PSB_PGETBL_ENABLED      0x00000001
++#define PSB_SGX_2D_SLAVE_PORT    0x4000
++#define PSB_TT_PRIV0_LIMIT       (256*1024*1024)
++#define PSB_TT_PRIV0_PLIMIT      (PSB_TT_PRIV0_LIMIT >> PAGE_SHIFT)
++#define PSB_NUM_VALIDATE_BUFFERS 2048
++#define PSB_MEM_KERNEL_START     0x10000000
++#define PSB_MEM_PDS_START        0x20000000
++#define PSB_MEM_MMU_START        0x40000000
++
++#define DRM_PSB_MEM_KERNEL       TTM_PL_PRIV0
++#define DRM_PSB_FLAG_MEM_KERNEL  TTM_PL_FLAG_PRIV0
++
++/*
++ *Flags for external memory type field.
++ */
++
++#define MRST_MSVDX_OFFSET       0x90000       /*MSVDX Base offset */
++#define PSB_MSVDX_OFFSET        0x50000       /*MSVDX Base offset */
++/* MSVDX MMIO region is 0x50000 - 0x57fff ==> 32KB */
++#define PSB_MSVDX_SIZE          0x10000
++
++#define LNC_TOPAZ_OFFSET      0xA0000
++#define LNC_TOPAZ_SIZE                0x10000
++
++#define PSB_MMU_CACHED_MEMORY     0x0001      /* Bind to MMU only */
++#define PSB_MMU_RO_MEMORY         0x0002      /* MMU RO memory */
++#define PSB_MMU_WO_MEMORY         0x0004      /* MMU WO memory */
++
++/*
++ *PTE's and PDE's
++ */
++
++#define PSB_PDE_MASK              0x003FFFFF
++#define PSB_PDE_SHIFT             22
++#define PSB_PTE_SHIFT             12
++
++#define PSB_PTE_VALID             0x0001      /* PTE / PDE valid */
++#define PSB_PTE_WO                0x0002      /* Write only */
++#define PSB_PTE_RO                0x0004      /* Read only */
++#define PSB_PTE_CACHED            0x0008      /* CPU cache coherent */
++
++/*
++ *VDC registers and bits
++ */
++#define PSB_MSVDX_CLOCKGATING     0x2064
++#define PSB_TOPAZ_CLOCKGATING     0x2068
++#define PSB_HWSTAM                0x2098
++#define PSB_INSTPM                0x20C0
++#define PSB_INT_IDENTITY_R        0x20A4
++#define _PSB_VSYNC_PIPEB_FLAG     (1<<5)
++#define _PSB_VSYNC_PIPEA_FLAG     (1<<7)
++#define _PSB_IRQ_SGX_FLAG         (1<<18)
++#define _PSB_IRQ_MSVDX_FLAG       (1<<19)
++#define _LNC_IRQ_TOPAZ_FLAG       (1<<20)
++#define PSB_INT_MASK_R            0x20A8
++#define PSB_INT_ENABLE_R          0x20A0
++
++#define _PSB_MMU_ER_MASK      0x0001FF00
++#define _PSB_MMU_ER_HOST      (1 << 16)
++#define GPIOA                 0x5010
++#define GPIOB                 0x5014
++#define GPIOC                 0x5018
++#define GPIOD                 0x501c
++#define GPIOE                 0x5020
++#define GPIOF                 0x5024
++#define GPIOG                 0x5028
++#define GPIOH                 0x502c
++#define GPIO_CLOCK_DIR_MASK           (1 << 0)
++#define GPIO_CLOCK_DIR_IN             (0 << 1)
++#define GPIO_CLOCK_DIR_OUT            (1 << 1)
++#define GPIO_CLOCK_VAL_MASK           (1 << 2)
++#define GPIO_CLOCK_VAL_OUT            (1 << 3)
++#define GPIO_CLOCK_VAL_IN             (1 << 4)
++#define GPIO_CLOCK_PULLUP_DISABLE     (1 << 5)
++#define GPIO_DATA_DIR_MASK            (1 << 8)
++#define GPIO_DATA_DIR_IN              (0 << 9)
++#define GPIO_DATA_DIR_OUT             (1 << 9)
++#define GPIO_DATA_VAL_MASK            (1 << 10)
++#define GPIO_DATA_VAL_OUT             (1 << 11)
++#define GPIO_DATA_VAL_IN              (1 << 12)
++#define GPIO_DATA_PULLUP_DISABLE      (1 << 13)
++
++#define VCLK_DIVISOR_VGA0   0x6000
++#define VCLK_DIVISOR_VGA1   0x6004
++#define VCLK_POST_DIV       0x6010
++
++#define PSB_COMM_2D (PSB_ENGINE_2D << 4)
++#define PSB_COMM_3D (PSB_ENGINE_3D << 4)
++#define PSB_COMM_TA (PSB_ENGINE_TA << 4)
++#define PSB_COMM_HP (PSB_ENGINE_HP << 4)
++#define PSB_COMM_USER_IRQ (1024 >> 2)
++#define PSB_COMM_USER_IRQ_LOST (PSB_COMM_USER_IRQ + 1)
++#define PSB_COMM_FW (2048 >> 2)
++
++#define PSB_UIRQ_VISTEST               1
++#define PSB_UIRQ_OOM_REPLY             2
++#define PSB_UIRQ_FIRE_TA_REPLY         3
++#define PSB_UIRQ_FIRE_RASTER_REPLY     4
++
++#define PSB_2D_SIZE (256*1024*1024)
++#define PSB_MAX_RELOC_PAGES 1024
++
++#define PSB_LOW_REG_OFFS 0x0204
++#define PSB_HIGH_REG_OFFS 0x0600
++
++#define PSB_NUM_VBLANKS 2
++
++#define PSB_COMM_2D (PSB_ENGINE_2D << 4)
++#define PSB_COMM_3D (PSB_ENGINE_3D << 4)
++#define PSB_COMM_TA (PSB_ENGINE_TA << 4)
++#define PSB_COMM_HP (PSB_ENGINE_HP << 4)
++#define PSB_COMM_FW (2048 >> 2)
++
++#define PSB_2D_SIZE (256*1024*1024)
++#define PSB_MAX_RELOC_PAGES 1024
++
++#define PSB_LOW_REG_OFFS 0x0204
++#define PSB_HIGH_REG_OFFS 0x0600
++
++#define PSB_NUM_VBLANKS 2
++#define PSB_WATCHDOG_DELAY (DRM_HZ * 2)
++#define PSB_LID_DELAY (DRM_HZ / 10)
++
++#define PSB_PWR_STATE_D0              1
++#define PSB_PWR_STATE_D0i3            2
++#define PSB_PWR_STATE_D3              3
++
++#define PSB_PMPOLICY_NOPM             0
++#define PSB_PMPOLICY_CLOCKGATING      1
++#define PSB_PMPOLICY_POWERDOWN                2
++
++#define PSB_PMSTATE_POWERUP           0
++#define PSB_PMSTATE_CLOCKGATED                1
++#define PSB_PMSTATE_POWERDOWN         2
++
++/* Graphics MSI address and data region in PCIx */
++#define PSB_PCIx_MSI_ADDR_LOC         0x94
++#define PSB_PCIx_MSI_DATA_LOC         0x98
++
++
++/*
++ *User options.
++ */
++
++struct drm_psb_uopt {
++      int clock_gating;
++};
++
++/**
++ *struct psb_context
++ *
++ *@buffers:      array of pre-allocated validate buffers.
++ *@used_buffers: number of buffers in @buffers array currently in use.
++ *@validate_buffer: buffers validated from user-space.
++ *@kern_validate_buffers : buffers validated from kernel-space.
++ *@fence_flags : Fence flags to be used for fence creation.
++ *
++ *This structure is used during execbuf validation.
++ */
++
++struct psb_context {
++      struct psb_validate_buffer *buffers;
++      uint32_t used_buffers;
++      struct list_head validate_list;
++      struct list_head kern_validate_list;
++      uint32_t fence_types;
++        uint32_t val_seq;
++};
++
++struct psb_gtt {
++      struct drm_device *dev;
++      int initialized;
++      uint32_t gatt_start;
++      uint32_t gtt_start;
++      uint32_t gtt_phys_start;
++      unsigned gtt_pages;
++      unsigned gatt_pages;
++      uint32_t stolen_base;
++      uint32_t pge_ctl;
++      u16 gmch_ctrl;
++      unsigned long stolen_size;
++      unsigned long vram_stolen_size;
++      unsigned long ci_stolen_size;
++      unsigned long rar_stolen_size;
++      uint32_t *gtt_map;
++      struct rw_semaphore sem;
++};
++
++struct psb_use_base {
++      struct list_head head;
++      struct ttm_fence_object *fence;
++      unsigned int reg;
++      unsigned long offset;
++      unsigned int dm;
++};
++
++struct psb_validate_buffer;
++
++struct psb_msvdx_cmd_queue {
++      struct list_head head;
++      void *cmd;
++      unsigned long cmd_size;
++      uint32_t sequence;
++};
++
++struct drm_psb_private {
++
++      /*
++       *TTM Glue.
++       */
++
++      struct drm_global_reference mem_global_ref;
++      int has_global;
++
++      struct drm_device *dev;
++      struct ttm_object_device *tdev;
++      struct ttm_fence_device fdev;
++      struct ttm_bo_device bdev;
++      struct ttm_lock ttm_lock;
++      struct vm_operations_struct *ttm_vm_ops;
++      int has_fence_device;
++      int has_bo_device;
++
++      unsigned long chipset;
++
++      struct psb_xhw_buf resume_buf;
++      struct drm_psb_dev_info_arg dev_info;
++      struct drm_psb_uopt uopt;
++
++      struct psb_gtt *pg;
++
++      struct page *scratch_page;
++      struct page *comm_page;
++      /* Deleted volatile because it is not recommended to use. */
++      uint32_t *comm;
++      uint32_t comm_mmu_offset;
++      uint32_t mmu_2d_offset;
++      uint32_t sequence[PSB_NUM_ENGINES];
++      uint32_t last_sequence[PSB_NUM_ENGINES];
++      int idle[PSB_NUM_ENGINES];
++      uint32_t last_submitted_seq[PSB_NUM_ENGINES];
++      int engine_lockup_2d;
++
++      struct psb_mmu_driver *mmu;
++      struct psb_mmu_pd *pf_pd;
++
++      uint8_t *sgx_reg;
++      uint8_t *vdc_reg;
++      uint32_t gatt_free_offset;
++
++      /*
++       *MSVDX
++       */
++      uint8_t *msvdx_reg;
++      atomic_t msvdx_mmu_invaldc;
++      void *msvdx_private;
++
++      /*
++       *TOPAZ
++       */
++      uint8_t *topaz_reg;
++      void *topaz_private;
++
++      /*
++       *Fencing / irq.
++       */
++
++      uint32_t sgx_irq_mask;
++      uint32_t sgx2_irq_mask;
++      uint32_t vdc_irq_mask;
++      u32 pipestat[2];
++
++      spinlock_t irqmask_lock;
++      spinlock_t sequence_lock;
++      int fence0_irq_on;
++      int irq_enabled;
++      unsigned int irqen_count_2d;
++      wait_queue_head_t event_2d_queue;
++
++#ifdef FIX_TG_16
++      wait_queue_head_t queue_2d;
++      atomic_t lock_2d;
++      atomic_t ta_wait_2d;
++      atomic_t ta_wait_2d_irq;
++      atomic_t waiters_2d;
++#else
++      struct mutex mutex_2d;
++#endif
++      int fence2_irq_on;
++
++      /*
++       *Modesetting
++       */
++      struct psb_intel_mode_device mode_dev;
++
++
++      /*
++       * CI share buffer
++       */
++      unsigned int ci_region_start;
++      unsigned int ci_region_size;
++
++      /*
++       * RAR share buffer;
++       */
++      unsigned int rar_region_start;
++      unsigned int rar_region_size;
++
++      /*
++       *Memory managers
++       */
++      
++      int have_vram;
++      int have_camera;
++      int have_rar;
++      int have_tt;
++      int have_mem_mmu;
++      int have_mem_aper;
++      int have_mem_kernel;
++      int have_mem_pds;
++      int have_mem_rastgeom;
++      struct mutex temp_mem;
++
++      /*
++       *Relocation buffer mapping.
++       */
++
++      spinlock_t reloc_lock;
++      unsigned int rel_mapped_pages;
++      wait_queue_head_t rel_mapped_queue;
++
++      /*
++       *SAREA
++       */
++      struct drm_psb_sarea *sarea_priv;
++
++      /*
++      *OSPM info
++      */
++      uint32_t ospm_base;
++
++      /*
++       * Sizes info
++       */
++
++      struct drm_psb_sizes_arg sizes;
++
++      uint32_t fuse_reg_value;
++
++      /* vbt (gct) header information*/
++      struct mrst_vbt vbt_data;
++      /* info that is stored from the gct */
++      struct gct_ioctl_arg gct_data;
++
++      /*
++       *LVDS info
++       */
++      int backlight_duty_cycle;       /* restore backlight to this value */
++      bool panel_wants_dither;
++      struct drm_display_mode *panel_fixed_mode;
++      struct drm_display_mode *lfp_lvds_vbt_mode;
++      struct drm_display_mode *sdvo_lvds_vbt_mode;
++
++        struct bdb_lvds_backlight * lvds_bl; /*LVDS backlight info from VBT*/
++        struct psb_intel_i2c_chan * lvds_i2c_bus;
++
++      /* Feature bits from the VBIOS*/
++      unsigned int int_tv_support:1;
++      unsigned int lvds_dither:1;
++      unsigned int lvds_vbt:1;
++      unsigned int int_crt_support:1;
++      unsigned int lvds_use_ssc:1;
++      int lvds_ssc_freq;
++
++/* MRST private date start */
++/*FIXME JLIU7 need to revisit */
++      bool sku_83;
++      bool sku_100;
++      bool sku_100L;
++      bool sku_bypass;
++      uint32_t iLVDS_enable;
++
++      /* pipe config register value */
++      uint32_t pipeconf;
++
++      /* plane control register value */
++      uint32_t dspcntr;
++
++/* MRST_DSI private date start */
++      /*
++       *MRST DSI info
++       */
++      /* The DSI device ready */
++      bool dsi_device_ready;
++
++      /* The DPI panel power on */
++      bool dpi_panel_on;
++
++      /* The DBI panel power on */
++      bool dbi_panel_on;
++
++      /* The DPI display */
++      bool dpi;
++
++      /* status */
++      uint32_t videoModeFormat:2;
++      uint32_t laneCount:3;
++      uint32_t status_reserved:27;
++
++      /* dual display - DPI & DBI */
++      bool dual_display;
++
++      /* HS or LP transmission */
++      bool lp_transmission;
++
++      /* configuration phase */
++      bool config_phase;
++
++      /* DSI clock */
++      uint32_t RRate;
++      uint32_t DDR_Clock;
++      uint32_t DDR_Clock_Calculated;
++      uint32_t ClockBits;
++
++      /* DBI Buffer pointer */
++      u8 *p_DBI_commandBuffer_orig;
++      u8 *p_DBI_commandBuffer;
++      uint32_t DBI_CB_pointer;
++      u8 *p_DBI_dataBuffer_orig;
++      u8 *p_DBI_dataBuffer;
++      uint32_t DBI_DB_pointer;
++
++      /* DPI panel spec */
++      uint32_t pixelClock;
++      uint32_t HsyncWidth;
++      uint32_t HbackPorch;
++      uint32_t HfrontPorch;
++      uint32_t HactiveArea;
++      uint32_t VsyncWidth;
++      uint32_t VbackPorch;
++      uint32_t VfrontPorch;
++      uint32_t VactiveArea;
++      uint32_t bpp:5;
++      uint32_t Reserved:27;
++
++      /* DBI panel spec */
++      uint32_t dbi_pixelClock;
++      uint32_t dbi_HsyncWidth;
++      uint32_t dbi_HbackPorch;
++      uint32_t dbi_HfrontPorch;
++      uint32_t dbi_HactiveArea;
++      uint32_t dbi_VsyncWidth;
++      uint32_t dbi_VbackPorch;
++      uint32_t dbi_VfrontPorch;
++      uint32_t dbi_VactiveArea;
++      uint32_t dbi_bpp:5;
++      uint32_t dbi_Reserved:27;
++
++/* MRST_DSI private date end */
++
++      /*
++       *Register state
++       */
++      uint32_t saveDSPACNTR;
++      uint32_t saveDSPBCNTR;
++      uint32_t savePIPEACONF;
++      uint32_t savePIPEBCONF;
++      uint32_t savePIPEASRC;
++      uint32_t savePIPEBSRC;
++      uint32_t saveFPA0;
++      uint32_t saveFPA1;
++      uint32_t saveDPLL_A;
++      uint32_t saveDPLL_A_MD;
++      uint32_t saveHTOTAL_A;
++      uint32_t saveHBLANK_A;
++      uint32_t saveHSYNC_A;
++      uint32_t saveVTOTAL_A;
++      uint32_t saveVBLANK_A;
++      uint32_t saveVSYNC_A;
++      uint32_t saveDSPASTRIDE;
++      uint32_t saveDSPASIZE;
++      uint32_t saveDSPAPOS;
++      uint32_t saveDSPABASE;
++      uint32_t saveDSPASURF;
++      uint32_t saveFPB0;
++      uint32_t saveFPB1;
++      uint32_t saveDPLL_B;
++      uint32_t saveDPLL_B_MD;
++      uint32_t saveHTOTAL_B;
++      uint32_t saveHBLANK_B;
++      uint32_t saveHSYNC_B;
++      uint32_t saveVTOTAL_B;
++      uint32_t saveVBLANK_B;
++      uint32_t saveVSYNC_B;
++      uint32_t saveDSPBSTRIDE;
++      uint32_t saveDSPBSIZE;
++      uint32_t saveDSPBPOS;
++      uint32_t saveDSPBBASE;
++      uint32_t saveDSPBSURF;
++      uint32_t saveVCLK_DIVISOR_VGA0;
++      uint32_t saveVCLK_DIVISOR_VGA1;
++      uint32_t saveVCLK_POST_DIV;
++      uint32_t saveVGACNTRL;
++      uint32_t saveADPA;
++      uint32_t saveLVDS;
++      uint32_t saveDVOA;
++      uint32_t saveDVOB;
++      uint32_t saveDVOC;
++      uint32_t savePP_ON;
++      uint32_t savePP_OFF;
++      uint32_t savePP_CONTROL;
++      uint32_t savePP_CYCLE;
++      uint32_t savePFIT_CONTROL;
++      uint32_t savePaletteA[256];
++      uint32_t savePaletteB[256];
++      uint32_t saveBLC_PWM_CTL2;
++      uint32_t saveBLC_PWM_CTL;
++      uint32_t saveCLOCKGATING;
++      uint32_t saveDSPARB;
++      uint32_t saveDSPATILEOFF;
++      uint32_t saveDSPBTILEOFF;
++      uint32_t saveDSPAADDR;
++      uint32_t saveDSPBADDR;
++      uint32_t savePFIT_AUTO_RATIOS;
++      uint32_t savePFIT_PGM_RATIOS;
++      uint32_t savePP_ON_DELAYS;
++      uint32_t savePP_OFF_DELAYS;
++      uint32_t savePP_DIVISOR;
++      uint32_t saveBSM;
++      uint32_t saveVBT;
++      uint32_t saveBCLRPAT_A;
++      uint32_t saveBCLRPAT_B;
++      uint32_t saveDSPALINOFF;
++      uint32_t saveDSPBLINOFF;
++      uint32_t savePERF_MODE;
++      uint32_t saveDSPFW1;
++      uint32_t saveDSPFW2;
++      uint32_t saveDSPFW3;
++      uint32_t saveDSPFW4;
++      uint32_t saveDSPFW5;
++      uint32_t saveDSPFW6;
++      uint32_t saveCHICKENBIT;
++      uint32_t saveDSPACURSOR_CTRL;
++      uint32_t saveDSPBCURSOR_CTRL;
++      uint32_t saveDSPACURSOR_BASE;
++      uint32_t saveDSPBCURSOR_BASE;
++      uint32_t saveDSPACURSOR_POS;
++      uint32_t saveDSPBCURSOR_POS;
++      uint32_t save_palette_a[256];
++      uint32_t save_palette_b[256];
++      uint32_t saveOV_OVADD;
++      uint32_t saveOV_OGAMC0;
++      uint32_t saveOV_OGAMC1;
++      uint32_t saveOV_OGAMC2;
++      uint32_t saveOV_OGAMC3;
++      uint32_t saveOV_OGAMC4;
++      uint32_t saveOV_OGAMC5;
++
++      /* MSI reg save */
++      uint32_t msi_addr;
++      uint32_t msi_data;
++
++      /*
++       *Xhw
++       */
++
++      uint32_t *xhw;
++      struct ttm_buffer_object *xhw_bo;
++      struct ttm_bo_kmap_obj xhw_kmap;
++      struct list_head xhw_in;
++      spinlock_t xhw_lock;
++      atomic_t xhw_client;
++      struct drm_file *xhw_file;
++      wait_queue_head_t xhw_queue;
++      wait_queue_head_t xhw_caller_queue;
++      struct mutex xhw_mutex;
++      struct psb_xhw_buf *xhw_cur_buf;
++      int xhw_submit_ok;
++      int xhw_on;
++
++      /*
++       *Scheduling.
++       */
++
++      struct mutex reset_mutex;
++      struct psb_scheduler scheduler;
++      struct mutex cmdbuf_mutex;
++      uint32_t ta_mem_pages;
++      struct psb_ta_mem *ta_mem;
++      int force_ta_mem_load;
++      atomic_t val_seq;
++
++      /*
++       *TODO: change this to be per drm-context.
++       */
++
++      struct psb_context context;
++
++      /*
++       * LID-Switch
++       */
++      spinlock_t lid_lock;
++      struct timer_list lid_timer;
++      struct psb_intel_opregion opregion;
++      u32 * lid_state;
++      u32 lid_last_state;
++
++      /*
++       *Watchdog
++       */
++
++      spinlock_t watchdog_lock;
++      struct timer_list watchdog_timer;
++      struct work_struct watchdog_wq;
++      struct work_struct msvdx_watchdog_wq;
++      struct work_struct topaz_watchdog_wq;
++      int timer_available;
++
++      uint32_t apm_reg;
++      uint16_t apm_base;
++#ifdef OSPM_STAT
++      unsigned char graphics_state;
++      unsigned long gfx_d0i3_time;
++      unsigned long gfx_d0_time;
++      unsigned long gfx_d3_time;
++      unsigned long gfx_last_mode_change;
++      unsigned long gfx_d0_cnt;
++      unsigned long gfx_d0i3_cnt;
++      unsigned long gfx_d3_cnt;
++#endif
++
++      int dri_page_flipping;
++      int current_page;
++      int pipe_active[2];
++      int saved_start[2];
++      int saved_offset[2];
++      int saved_stride[2];    
++
++      int flip_start[2];      
++      int flip_offset[2];
++      int flip_stride[2];
++
++
++      /*
++       *Used for modifying backlight from xrandr -- consider removing and using HAL instead
++       */
++      struct drm_property *backlight_property;
++      uint32_t blc_adj1;
++
++      /*
++       * DPST and Hotplug state
++       */
++
++      struct dpst_state *psb_dpst_state;
++      struct hotplug_state *psb_hotplug_state;
++
++};
++
++struct psb_fpriv {
++      struct ttm_object_file *tfile;
++};
++
++struct psb_mmu_driver;
++
++extern int drm_crtc_probe_output_modes(struct drm_device *dev, int, int);
++extern int drm_pick_crtcs(struct drm_device *dev);
++
++
++static inline struct psb_fpriv *psb_fpriv(struct drm_file *file_priv)
++{
++      return (struct psb_fpriv *) file_priv->driver_priv;
++}
++
++static inline struct drm_psb_private *psb_priv(struct drm_device *dev)
++{
++      return (struct drm_psb_private *) dev->dev_private;
++}
++
++/*
++ *TTM glue. psb_ttm_glue.c
++ */
++
++extern int psb_open(struct inode *inode, struct file *filp);
++extern int psb_release(struct inode *inode, struct file *filp);
++extern int psb_mmap(struct file *filp, struct vm_area_struct *vma);
++
++extern int psb_fence_signaled_ioctl(struct drm_device *dev, void *data,
++                                  struct drm_file *file_priv);
++extern int psb_verify_access(struct ttm_buffer_object *bo,
++                           struct file *filp);
++extern ssize_t psb_ttm_read(struct file *filp, char __user *buf,
++                          size_t count, loff_t *f_pos);
++extern ssize_t psb_ttm_write(struct file *filp, const char __user *buf,
++                          size_t count, loff_t *f_pos);
++extern int psb_fence_finish_ioctl(struct drm_device *dev, void *data,
++                                struct drm_file *file_priv);
++extern int psb_fence_unref_ioctl(struct drm_device *dev, void *data,
++                               struct drm_file *file_priv);
++extern int psb_pl_waitidle_ioctl(struct drm_device *dev, void *data,
++                               struct drm_file *file_priv);
++extern int psb_pl_setstatus_ioctl(struct drm_device *dev, void *data,
++                                struct drm_file *file_priv);
++extern int psb_pl_synccpu_ioctl(struct drm_device *dev, void *data,
++                              struct drm_file *file_priv);
++extern int psb_pl_unref_ioctl(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv);
++extern int psb_pl_reference_ioctl(struct drm_device *dev, void *data,
++                                struct drm_file *file_priv);
++extern int psb_pl_create_ioctl(struct drm_device *dev, void *data,
++                             struct drm_file *file_priv);
++extern int psb_extension_ioctl(struct drm_device *dev, void *data,
++                             struct drm_file *file_priv);
++extern int psb_ttm_global_init(struct drm_psb_private *dev_priv);
++extern void psb_ttm_global_release(struct drm_psb_private *dev_priv);
++/*
++ *MMU stuff.
++ */
++
++extern struct psb_mmu_driver *psb_mmu_driver_init(uint8_t __iomem * registers,
++                                      int trap_pagefaults,
++                                      int invalid_type,
++                                      struct drm_psb_private *dev_priv);
++extern void psb_mmu_driver_takedown(struct psb_mmu_driver *driver);
++extern struct psb_mmu_pd *psb_mmu_get_default_pd(struct psb_mmu_driver
++                                               *driver);
++extern void psb_mmu_mirror_gtt(struct psb_mmu_pd *pd, uint32_t mmu_offset,
++                             uint32_t gtt_start, uint32_t gtt_pages);
++extern void psb_mmu_test(struct psb_mmu_driver *driver, uint32_t offset);
++extern struct psb_mmu_pd *psb_mmu_alloc_pd(struct psb_mmu_driver *driver,
++                                         int trap_pagefaults,
++                                         int invalid_type);
++extern void psb_mmu_free_pagedir(struct psb_mmu_pd *pd);
++extern void psb_mmu_flush(struct psb_mmu_driver *driver);
++extern void psb_mmu_remove_pfn_sequence(struct psb_mmu_pd *pd,
++                                      unsigned long address,
++                                      uint32_t num_pages);
++extern int psb_mmu_insert_pfn_sequence(struct psb_mmu_pd *pd,
++                                     uint32_t start_pfn,
++                                     unsigned long address,
++                                     uint32_t num_pages, int type);
++extern int psb_mmu_virtual_to_pfn(struct psb_mmu_pd *pd, uint32_t virtual,
++                                unsigned long *pfn);
++
++/*
++ *Enable / disable MMU for different requestors.
++ */
++
++extern void psb_mmu_enable_requestor(struct psb_mmu_driver *driver,
++                                   uint32_t mask);
++extern void psb_mmu_disable_requestor(struct psb_mmu_driver *driver,
++                                    uint32_t mask);
++extern void psb_mmu_set_pd_context(struct psb_mmu_pd *pd, int hw_context);
++extern int psb_mmu_insert_pages(struct psb_mmu_pd *pd, struct page **pages,
++                              unsigned long address, uint32_t num_pages,
++                              uint32_t desired_tile_stride,
++                              uint32_t hw_tile_stride, int type);
++extern void psb_mmu_remove_pages(struct psb_mmu_pd *pd,
++                               unsigned long address, uint32_t num_pages,
++                               uint32_t desired_tile_stride,
++                               uint32_t hw_tile_stride);
++/*
++ *psb_sgx.c
++ */
++
++extern int psb_blit_sequence(struct drm_psb_private *dev_priv,
++                           uint32_t sequence);
++extern void psb_init_2d(struct drm_psb_private *dev_priv);
++extern int psb_idle_2d(struct drm_device *dev);
++extern int psb_idle_3d(struct drm_device *dev);
++extern int psb_emit_2d_copy_blit(struct drm_device *dev,
++                               uint32_t src_offset,
++                               uint32_t dst_offset, uint32_t pages,
++                               int direction);
++extern int psb_cmdbuf_ioctl(struct drm_device *dev, void *data,
++                          struct drm_file *file_priv);
++extern int psb_reg_submit(struct drm_psb_private *dev_priv,
++                        uint32_t *regs, unsigned int cmds);
++extern int psb_submit_copy_cmdbuf(struct drm_device *dev,
++                                struct ttm_buffer_object *cmd_buffer,
++                                unsigned long cmd_offset,
++                                unsigned long cmd_size, int engine,
++                                uint32_t *copy_buffer);
++
++extern void psb_init_disallowed(void);
++extern void psb_fence_or_sync(struct drm_file *file_priv,
++                            uint32_t engine,
++                            uint32_t fence_types,
++                            uint32_t fence_flags,
++                            struct list_head *list,
++                            struct psb_ttm_fence_rep *fence_arg,
++                            struct ttm_fence_object **fence_p);
++extern int psb_validate_kernel_buffer(struct psb_context *context,
++                                    struct ttm_buffer_object *bo,
++                                    uint32_t fence_class,
++                                    uint64_t set_flags,
++                                    uint64_t clr_flags);
++extern void psb_init_ospm(struct drm_psb_private *dev_priv);
++extern int psb_try_power_down_sgx(struct drm_device *dev);
++extern int psb_page_flip(struct drm_device *dev, void *data,
++                             struct drm_file *file_priv);
++extern int psb_flip_set_base(struct drm_psb_private *dev_priv, int pipe);
++
++/*
++ *psb_irq.c
++ */
++
++extern irqreturn_t psb_irq_handler(DRM_IRQ_ARGS);
++extern void psb_irq_preinstall(struct drm_device *dev);
++extern int psb_irq_postinstall(struct drm_device *dev);
++extern void psb_irq_uninstall(struct drm_device *dev);
++extern void psb_irq_preinstall_islands(struct drm_device *dev, int hw_islands);
++extern int psb_irq_postinstall_islands(struct drm_device *dev, int hw_islands);
++extern void psb_irq_uninstall_islands(struct drm_device *dev, int hw_islands);
++extern int psb_vblank_wait2(struct drm_device *dev,
++                          unsigned int *sequence);
++extern int psb_vblank_wait(struct drm_device *dev, unsigned int *sequence);
++
++extern int psb_enable_vblank(struct drm_device *dev, int crtc);
++extern void psb_disable_vblank(struct drm_device *dev, int crtc);
++void
++psb_enable_pipestat(struct drm_psb_private *dev_priv, int pipe, u32 mask);
++
++void
++psb_disable_pipestat(struct drm_psb_private *dev_priv, int pipe, u32 mask);
++
++extern u32 psb_get_vblank_counter(struct drm_device *dev, int crtc);
++/*
++ *psb_fence.c
++ */
++
++extern void psb_fence_handler(struct drm_device *dev, uint32_t class);
++extern void psb_2D_irq_off(struct drm_psb_private *dev_priv);
++extern void psb_2D_irq_on(struct drm_psb_private *dev_priv);
++extern uint32_t psb_fence_advance_sequence(struct drm_device *dev,
++                                         uint32_t class);
++extern int psb_fence_emit_sequence(struct ttm_fence_device *fdev,
++                                 uint32_t fence_class,
++                                 uint32_t flags, uint32_t *sequence,
++                                 unsigned long *timeout_jiffies);
++extern void psb_fence_error(struct drm_device *dev,
++                          uint32_t class,
++                          uint32_t sequence, uint32_t type, int error);
++extern int psb_ttm_fence_device_init(struct ttm_fence_device *fdev);
++
++/* MSVDX/Topaz stuff */
++extern int lnc_video_frameskip(struct drm_device *dev,
++                             uint64_t user_pointer);
++extern int lnc_video_getparam(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv);
++extern int psb_try_power_down_topaz(struct drm_device *dev);
++extern int psb_try_power_down_msvdx(struct drm_device *dev);
++
++/*
++ *psb_gtt.c
++ */
++extern int psb_gtt_init(struct psb_gtt *pg, int resume);
++extern int psb_gtt_insert_pages(struct psb_gtt *pg, struct page **pages,
++                              unsigned offset_pages, unsigned num_pages,
++                              unsigned desired_tile_stride,
++                              unsigned hw_tile_stride, int type);
++extern int psb_gtt_remove_pages(struct psb_gtt *pg, unsigned offset_pages,
++                              unsigned num_pages,
++                              unsigned desired_tile_stride,
++                              unsigned hw_tile_stride);
++
++extern struct psb_gtt *psb_gtt_alloc(struct drm_device *dev);
++extern void psb_gtt_takedown(struct psb_gtt *pg, int free);
++
++/*
++ *psb_fb.c
++ */
++extern int psbfb_probed(struct drm_device *dev);
++extern int psbfb_remove(struct drm_device *dev,
++                      struct drm_framebuffer *fb);
++extern int psbfb_kms_off_ioctl(struct drm_device *dev, void *data,
++                             struct drm_file *file_priv);
++extern int psbfb_kms_on_ioctl(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv);
++
++/*
++ *psb_reset.c
++ */
++
++extern void psb_reset(struct drm_psb_private *dev_priv, int reset_2d);
++extern void psb_schedule_watchdog(struct drm_psb_private *dev_priv);
++extern void psb_watchdog_init(struct drm_psb_private *dev_priv);
++extern void psb_watchdog_takedown(struct drm_psb_private *dev_priv);
++extern void psb_lid_timer_init(struct drm_psb_private * dev_priv);
++extern void psb_lid_timer_takedown(struct drm_psb_private * dev_priv);
++extern void psb_print_pagefault(struct drm_psb_private *dev_priv);
++
++/*
++ *psb_xhw.c
++ */
++
++extern int psb_xhw_ioctl(struct drm_device *dev, void *data,
++                       struct drm_file *file_priv);
++extern int psb_xhw_init_ioctl(struct drm_device *dev, void *data,
++                            struct drm_file *file_priv);
++extern int psb_xhw_init(struct drm_device *dev);
++extern void psb_xhw_takedown(struct drm_psb_private *dev_priv);
++extern void psb_xhw_init_takedown(struct drm_psb_private *dev_priv,
++                                struct drm_file *file_priv, int closing);
++extern int psb_xhw_scene_bind_fire(struct drm_psb_private *dev_priv,
++                                 struct psb_xhw_buf *buf,
++                                 uint32_t fire_flags,
++                                 uint32_t hw_context,
++                                 uint32_t *cookie,
++                                 uint32_t *oom_cmds,
++                                 uint32_t num_oom_cmds,
++                                 uint32_t offset,
++                                 uint32_t engine, uint32_t flags);
++extern int psb_xhw_fire_raster(struct drm_psb_private *dev_priv,
++                             struct psb_xhw_buf *buf,
++                             uint32_t fire_flags);
++extern int psb_xhw_scene_info(struct drm_psb_private *dev_priv,
++                            struct psb_xhw_buf *buf, uint32_t w,
++                            uint32_t h, uint32_t *hw_cookie,
++                            uint32_t *bo_size, uint32_t *clear_p_start,
++                            uint32_t *clear_num_pages);
++
++extern int psb_xhw_reset_dpm(struct drm_psb_private *dev_priv,
++                           struct psb_xhw_buf *buf);
++extern int psb_xhw_check_lockup(struct drm_psb_private *dev_priv,
++                              struct psb_xhw_buf *buf, uint32_t *value);
++extern int psb_xhw_ta_mem_info(struct drm_psb_private *dev_priv,
++                             struct psb_xhw_buf *buf,
++                             uint32_t pages,
++                             uint32_t * hw_cookie,
++                             uint32_t * size,
++                             uint32_t * ta_min_size);
++extern int psb_xhw_ta_oom(struct drm_psb_private *dev_priv,
++                        struct psb_xhw_buf *buf, uint32_t *cookie);
++extern void psb_xhw_ta_oom_reply(struct drm_psb_private *dev_priv,
++                               struct psb_xhw_buf *buf,
++                               uint32_t *cookie,
++                               uint32_t *bca,
++                               uint32_t *rca, uint32_t *flags);
++extern int psb_xhw_vistest(struct drm_psb_private *dev_priv,
++                         struct psb_xhw_buf *buf);
++extern int psb_xhw_handler(struct drm_psb_private *dev_priv);
++extern int psb_xhw_resume(struct drm_psb_private *dev_priv,
++                        struct psb_xhw_buf *buf);
++extern void psb_xhw_fire_reply(struct drm_psb_private *dev_priv,
++                             struct psb_xhw_buf *buf, uint32_t *cookie);
++extern int psb_xhw_ta_mem_load(struct drm_psb_private *dev_priv,
++                             struct psb_xhw_buf *buf,
++                             uint32_t flags,
++                             uint32_t param_offset,
++                             uint32_t pt_offset, uint32_t *hw_cookie);
++extern void psb_xhw_clean_buf(struct drm_psb_private *dev_priv,
++                            struct psb_xhw_buf *buf);
++
++/*
++ *psb_schedule.c: HW bug fixing.
++ */
++
++#ifdef FIX_TG_16
++
++extern void psb_2d_unlock(struct drm_psb_private *dev_priv);
++extern void psb_2d_lock(struct drm_psb_private *dev_priv);
++extern int psb_2d_trylock(struct drm_psb_private *dev_priv);
++extern void psb_resume_ta_2d_idle(struct drm_psb_private *dev_priv);
++extern int psb_2d_trylock(struct drm_psb_private *dev_priv);
++extern void psb_2d_atomic_unlock(struct drm_psb_private *dev_priv);
++#else
++
++#define psb_2d_lock(_dev_priv) mutex_lock(&(_dev_priv)->mutex_2d)
++#define psb_2d_unlock(_dev_priv) mutex_unlock(&(_dev_priv)->mutex_2d)
++
++#endif
++
++/* modesetting */
++extern void psb_modeset_init(struct drm_device *dev);
++extern void psb_modeset_cleanup(struct drm_device *dev);
++
++/* psb_bl.c */
++int psb_backlight_init(struct drm_device *dev);
++void psb_backlight_exit(void);
++int psb_set_brightness(struct backlight_device *bd);
++int psb_get_brightness(struct backlight_device *bd);
++
++/*
++ *Utilities
++ */
++#define DRM_DRIVER_PRIVATE_T struct drm_psb_private
++
++static inline u32 MSG_READ32(uint port, uint offset)
++{
++      int mcr = (0xD0<<24) | (port << 16) | (offset << 8);
++      outl(0x800000D0, 0xCF8);
++      outl(mcr, 0xCFC);
++      outl(0x800000D4, 0xCF8);
++      return inl(0xcfc);
++}
++static inline void MSG_WRITE32(uint port, uint offset, u32 value)
++{
++      int mcr = (0xE0<<24) | (port << 16) | (offset << 8) | 0xF0;
++      outl(0x800000D4, 0xCF8);
++      outl(value, 0xcfc);
++      outl(0x800000D0, 0xCF8);
++      outl(mcr, 0xCFC);
++}
++
++static inline uint32_t REGISTER_READ(struct drm_device *dev, uint32_t reg)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      return ioread32(dev_priv->vdc_reg + (reg));
++}
++
++#define REG_READ(reg)          REGISTER_READ(dev, (reg))
++static inline void REGISTER_WRITE(struct drm_device *dev, uint32_t reg,
++                                    uint32_t val)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      iowrite32((val), dev_priv->vdc_reg + (reg));
++}
++
++#define REG_WRITE(reg, val)     REGISTER_WRITE(dev, (reg), (val))
++
++static inline void REGISTER_WRITE16(struct drm_device *dev,
++                                      uint32_t reg, uint32_t val)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      iowrite16((val), dev_priv->vdc_reg + (reg));
++}
++
++#define REG_WRITE16(reg, val)     REGISTER_WRITE16(dev, (reg), (val))
++
++static inline void REGISTER_WRITE8(struct drm_device *dev,
++                                     uint32_t reg, uint32_t val)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      iowrite8((val), dev_priv->vdc_reg + (reg));
++}
++
++#define REG_WRITE8(reg, val)     REGISTER_WRITE8(dev, (reg), (val))
++
++#define PSB_ALIGN_TO(_val, _align) \
++  (((_val) + ((_align) - 1)) & ~((_align) - 1))
++#define PSB_WVDC32(_val, _offs) \
++  iowrite32(_val, dev_priv->vdc_reg + (_offs))
++#define PSB_RVDC32(_offs) \
++  ioread32(dev_priv->vdc_reg + (_offs))
++
++//#define TRAP_SGX_PM_FAULT 1
++#ifdef TRAP_SGX_PM_FAULT
++#define PSB_WSGX32(_val, _offs)                                       \
++{                                                             \
++    if (inl(dev_priv->apm_base + PSB_APM_STS) & 0x3) {                \
++      printk(KERN_ERR "access sgx when it's off!!(WRITE) %s, %d\n", \
++             __FILE__, __LINE__);                             \
++      mdelay(1000);                                           \
++    }                                                         \
++    iowrite32(_val, dev_priv->sgx_reg + (_offs));             \
++}
++#define PSB_RSGX32(_offs)                                     \
++({                                                            \
++    if (inl(dev_priv->apm_base + PSB_APM_STS) & 0x3) {                \
++      printk(KERN_ERR "access sgx when it's off!! (READ) %s, %d\n", \
++             __FILE__, __LINE__);                             \
++      mdelay(1000);                                           \
++    }                                                         \
++    ioread32(dev_priv->sgx_reg + (_offs));                    \
++})
++#else
++#define PSB_WSGX32(_val, _offs)                                       \
++  iowrite32(_val, dev_priv->sgx_reg + (_offs))
++#define PSB_RSGX32(_offs)                                     \
++  ioread32(dev_priv->sgx_reg + (_offs))
++#endif
++
++#define PSB_WMSVDX32(_val, _offs) \
++  iowrite32(_val, dev_priv->msvdx_reg + (_offs))
++#define PSB_RMSVDX32(_offs) \
++  ioread32(dev_priv->msvdx_reg + (_offs))
++
++#define PSB_ALPL(_val, _base)                 \
++  (((_val) >> (_base ## _ALIGNSHIFT)) << (_base ## _SHIFT))
++#define PSB_ALPLM(_val, _base)                        \
++  ((((_val) >> (_base ## _ALIGNSHIFT)) << (_base ## _SHIFT)) & (_base ## _MASK))
++
++#define PSB_D_RENDER  (1 << 16)
++
++#define PSB_D_GENERAL (1 << 0)
++#define PSB_D_INIT    (1 << 1)
++#define PSB_D_IRQ     (1 << 2)
++#define PSB_D_FW      (1 << 3)
++#define PSB_D_PERF    (1 << 4)
++#define PSB_D_TMP    (1 << 5)
++#define PSB_D_PM      (1 << 6)
++
++extern int drm_psb_debug;
++extern int drm_psb_no_fb;
++extern int drm_psb_disable_vsync;
++extern int drm_idle_check_interval;
++extern int drm_psb_ospm;
++
++#define PSB_DEBUG_FW(_fmt, _arg...) \
++      PSB_DEBUG(PSB_D_FW, _fmt, ##_arg)
++#define PSB_DEBUG_GENERAL(_fmt, _arg...) \
++      PSB_DEBUG(PSB_D_GENERAL, _fmt, ##_arg)
++#define PSB_DEBUG_INIT(_fmt, _arg...) \
++      PSB_DEBUG(PSB_D_INIT, _fmt, ##_arg)
++#define PSB_DEBUG_IRQ(_fmt, _arg...) \
++      PSB_DEBUG(PSB_D_IRQ, _fmt, ##_arg)
++#define PSB_DEBUG_RENDER(_fmt, _arg...) \
++      PSB_DEBUG(PSB_D_RENDER, _fmt, ##_arg)
++#define PSB_DEBUG_PERF(_fmt, _arg...) \
++      PSB_DEBUG(PSB_D_PERF, _fmt, ##_arg)
++#define PSB_DEBUG_TMP(_fmt, _arg...) \
++      PSB_DEBUG(PSB_D_TMP, _fmt, ##_arg)
++#define PSB_DEBUG_PM(_fmt, _arg...) \
++      PSB_DEBUG(PSB_D_PM, _fmt, ##_arg)
++
++#if DRM_DEBUG_CODE
++#define PSB_DEBUG(_flag, _fmt, _arg...)                                       \
++      do {                                                            \
++              if (unlikely((_flag) & drm_psb_debug))                  \
++                      printk(KERN_DEBUG                               \
++                             "[psb:0x%02x:%s] " _fmt , _flag,         \
++                             __func__ , ##_arg);                      \
++      } while (0)
++#else
++#define PSB_DEBUG(_fmt, _arg...)     do { } while (0)
++#endif
++
++#define IS_POULSBO(dev) (((dev)->pci_device == 0x8108) || \
++                       ((dev)->pci_device == 0x8109))
++
++#define IS_MRST(dev) (((dev)->pci_device & 0xfffc) == 0x4100)
++
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_fb.c b/drivers/gpu/drm/psb/psb_fb.c
+new file mode 100644
+index 0000000..a29694e
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_fb.c
+@@ -0,0 +1,1833 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++
++#include <linux/module.h>
++#include <linux/kernel.h>
++#include <linux/errno.h>
++#include <linux/string.h>
++#include <linux/mm.h>
++#include <linux/tty.h>
++#include <linux/slab.h>
++#include <linux/delay.h>
++#include <linux/fb.h>
++#include <linux/init.h>
++#include <linux/console.h>
++
++#include <drm/drmP.h>
++#include <drm/drm.h>
++#include <drm/drm_crtc.h>
++
++#include "psb_drv.h"
++#include "psb_intel_reg.h"
++#include "psb_intel_drv.h"
++#include "ttm/ttm_userobj_api.h"
++#include "psb_fb.h"
++#include "psb_sgx.h"
++#include "psb_powermgmt.h"
++
++static int fill_fb_bitfield(struct fb_var_screeninfo *var, int depth)
++{
++      switch (depth) {
++      case 8:
++              var->red.offset = 0;
++              var->green.offset = 0;
++              var->blue.offset = 0;
++              var->red.length = 8;
++              var->green.length = 8;
++              var->blue.length = 8;
++              var->transp.length = 0;
++              var->transp.offset = 0;
++              break;
++      case 15:
++              var->red.offset = 10;
++              var->green.offset = 5;
++              var->blue.offset = 0;
++              var->red.length = 5;
++              var->green.length = 5;
++              var->blue.length = 5;
++              var->transp.length = 1;
++              var->transp.offset = 15;
++              break;
++      case 16:
++              var->red.offset = 11;
++              var->green.offset = 5;
++              var->blue.offset = 0;
++              var->red.length = 5;
++              var->green.length = 6;
++              var->blue.length = 5;
++              var->transp.length = 0;
++              var->transp.offset = 0;
++              break;
++      case 24:
++              var->red.offset = 16;
++              var->green.offset = 8;
++              var->blue.offset = 0;
++              var->red.length = 8;
++              var->green.length = 8;
++              var->blue.length = 8;
++              var->transp.length = 0;
++              var->transp.offset = 0;
++              break;
++      case 32:
++              var->red.offset = 16;
++              var->green.offset = 8;
++              var->blue.offset = 0;
++              var->red.length = 8;
++              var->green.length = 8;
++              var->blue.length = 8;
++              var->transp.length = 8;
++              var->transp.offset = 24;
++              break;
++      default:
++              return -EINVAL;
++      }
++
++      return 0;
++}
++
++static void psb_user_framebuffer_destroy(struct drm_framebuffer *fb);
++static int psb_user_framebuffer_create_handle(struct drm_framebuffer *fb,
++                                            struct drm_file *file_priv,
++                                            unsigned int *handle);
++
++static const struct drm_framebuffer_funcs psb_fb_funcs = {
++      .destroy = psb_user_framebuffer_destroy,
++      .create_handle = psb_user_framebuffer_create_handle,
++};
++
++struct psbfb_par {
++      struct drm_device *dev;
++      struct psb_framebuffer *psbfb;
++
++      int dpms_state;
++
++      int crtc_count;
++      /* crtc currently bound to this */
++      uint32_t crtc_ids[2];
++};
++
++#define CMAP_TOHW(_val, _width) ((((_val) << (_width)) + 0x7FFF - (_val)) >> 16)
++
++static int psbfb_setcolreg(unsigned regno, unsigned red, unsigned green,
++                         unsigned blue, unsigned transp,
++                         struct fb_info *info)
++{
++      struct psbfb_par *par = info->par;
++      struct drm_framebuffer *fb = &par->psbfb->base;
++      uint32_t v;
++
++      if (!fb)
++              return -ENOMEM;
++
++      if (regno > 255)
++              return 1;
++
++#if 0                         /* JB: not drop, check that this works */
++      if (fb->bits_per_pixel == 8) {
++              list_for_each_entry(crtc, &dev->mode_config.crtc_list,
++                                  head) {
++                      for (i = 0; i < par->crtc_count; i++)
++                              if (crtc->base.id == par->crtc_ids[i])
++                                      break;
++
++                      if (i == par->crtc_count)
++                              continue;
++
++                      if (crtc->funcs->gamma_set)
++                              crtc->funcs->gamma_set(crtc, red, green,
++                                                     blue, regno);
++              }
++              return 0;
++      }
++#endif
++
++      red = CMAP_TOHW(red, info->var.red.length);
++      blue = CMAP_TOHW(blue, info->var.blue.length);
++      green = CMAP_TOHW(green, info->var.green.length);
++      transp = CMAP_TOHW(transp, info->var.transp.length);
++
++      v = (red << info->var.red.offset) |
++          (green << info->var.green.offset) |
++          (blue << info->var.blue.offset) |
++          (transp << info->var.transp.offset);
++
++      if (regno < 16) {
++              switch (fb->bits_per_pixel) {
++              case 16:
++                      ((uint32_t *) info->pseudo_palette)[regno] = v;
++                      break;
++              case 24:
++              case 32:
++                      ((uint32_t *) info->pseudo_palette)[regno] = v;
++                      break;
++              }
++      }
++
++      return 0;
++}
++
++static struct drm_display_mode *psbfb_find_first_mode(struct
++                                                    fb_var_screeninfo
++                                                    *var,
++                                                    struct fb_info *info,
++                                                    struct drm_crtc
++                                                    *crtc)
++{
++      struct psbfb_par *par = info->par;
++      struct drm_device *dev = par->dev;
++      struct drm_display_mode *drm_mode;
++      struct drm_display_mode *preferred_mode = NULL;
++      struct drm_display_mode *last_mode = NULL;
++      struct drm_connector *connector;
++      int found;
++
++      found = 0;
++      list_for_each_entry(connector, &dev->mode_config.connector_list,
++                          head) {
++              if (connector->encoder && connector->encoder->crtc == crtc) {
++                      found = 1;
++                      break;
++              }
++      }
++
++      /* found no connector, bail */
++      if (!found)
++              return NULL;
++
++      found = 0;
++      list_for_each_entry(drm_mode, &connector->modes, head) {
++              if (drm_mode->hdisplay == var->xres &&
++                  drm_mode->vdisplay == var->yres
++                  && drm_mode->clock != 0) {
++                      found = 1;
++                      last_mode = drm_mode;
++                      if(IS_POULSBO(dev)) {
++                              if(last_mode->type & DRM_MODE_TYPE_PREFERRED) {
++                                      preferred_mode = last_mode;
++                              }
++                      }
++              }
++      }
++
++      /* No mode matching mode found */
++      if (!found)
++              return NULL;
++      
++      if(IS_POULSBO(dev)) {
++              if(preferred_mode)
++                      return preferred_mode;
++              else
++                      return last_mode;
++      } else {
++              return last_mode;
++      }
++}
++
++static int psbfb_check_var(struct fb_var_screeninfo *var,
++                         struct fb_info *info)
++{
++      struct psbfb_par *par = info->par;
++      struct psb_framebuffer *psbfb = par->psbfb;
++      struct drm_device *dev = par->dev;
++      int ret;
++      int depth;
++      int pitch;
++      int bpp = var->bits_per_pixel;
++
++      if (!psbfb)
++              return -ENOMEM;
++
++      if (!var->pixclock)
++              return -EINVAL;
++
++      /* don't support virtuals for now */
++      if (var->xres_virtual > var->xres)
++              return -EINVAL;
++
++      if (var->yres_virtual > var->yres)
++              return -EINVAL;
++
++      switch (bpp) {
++#if 0                         /* JB: for now only support true color */
++      case 8:
++              depth = 8;
++              break;
++#endif
++      case 16:
++              depth = (var->green.length == 6) ? 16 : 15;
++              break;
++      case 24:                /* assume this is 32bpp / depth 24 */
++              bpp = 32;
++              /* fallthrough */
++      case 32:
++              depth = (var->transp.length > 0) ? 32 : 24;
++              break;
++      default:
++              return -EINVAL;
++      }
++
++      pitch = ((var->xres * ((bpp + 1) / 8)) + 0x3f) & ~0x3f;
++
++      /* Check that we can resize */
++      if ((pitch * var->yres) > (psbfb->bo->num_pages << PAGE_SHIFT)) {
++#if 1
++              /* Need to resize the fb object.
++               * But the generic fbdev code doesn't really understand
++               * that we can do this. So disable for now.
++               */
++              DRM_INFO("Can't support requested size, too big!\n");
++              return -EINVAL;
++#else
++              struct drm_psb_private *dev_priv = psb_priv(dev);
++              struct ttm_bo_device *bdev = &dev_priv->bdev;
++              struct ttm_buffer_object *fbo = NULL;
++              struct ttm_bo_kmap_obj tmp_kmap;
++
++              /* a temporary BO to check if we could resize in setpar.
++               * Therefore no need to set NO_EVICT.
++               */
++              ret = ttm_buffer_object_create(bdev,
++                                             pitch * var->yres,
++                                             ttm_bo_type_kernel,
++                                             TTM_PL_FLAG_TT |
++                                             TTM_PL_FLAG_VRAM |
++                                             TTM_PL_FLAG_NO_EVICT,
++                                             0, 0, &fbo);
++              if (ret || !fbo)
++                      return -ENOMEM;
++
++              ret = ttm_bo_kmap(fbo, 0, fbo->num_pages, &tmp_kmap);
++              if (ret) {
++                      ttm_bo_usage_deref_unlocked(&fbo);
++                      return -EINVAL;
++              }
++
++              ttm_bo_kunmap(&tmp_kmap);
++              /* destroy our current fbo! */
++              ttm_bo_usage_deref_unlocked(&fbo);
++#endif
++      }
++
++      ret = fill_fb_bitfield(var, depth);
++      if (ret)
++              return ret;
++
++#if 1
++      /* Here we walk the output mode list and look for modes. If we haven't
++       * got it, then bail. Not very nice, so this is disabled.
++       * In the set_par code, we create our mode based on the incoming
++       * parameters. Nicer, but may not be desired by some.
++       */
++      {
++              struct drm_crtc *crtc;
++              int i;
++
++              list_for_each_entry(crtc, &dev->mode_config.crtc_list,
++                                  head) {
++                      struct psb_intel_crtc *psb_intel_crtc =
++                          to_psb_intel_crtc(crtc);
++
++                      for (i = 0; i < par->crtc_count; i++)
++                              if (crtc->base.id == par->crtc_ids[i])
++                                      break;
++
++                      if (i == par->crtc_count)
++                              continue;
++
++                      if (psb_intel_crtc->mode_set.num_connectors == 0)
++                              continue;
++
++                      if (!psbfb_find_first_mode(&info->var, info, crtc))
++                              return -EINVAL;
++              }
++      }
++#else
++      (void) i;
++      (void) dev;             /* silence warnings */
++      (void) crtc;
++      (void) drm_mode;
++      (void) connector;
++#endif
++
++      return 0;
++}
++
++/* this will let fbcon do the mode init */
++static int psbfb_set_par(struct fb_info *info)
++{
++      struct psbfb_par *par = info->par;
++      struct psb_framebuffer *psbfb = par->psbfb;
++      struct drm_framebuffer *fb = &psbfb->base;
++      struct drm_device *dev = par->dev;
++      struct fb_var_screeninfo *var = &info->var;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct drm_display_mode *drm_mode;
++      int pitch;
++      int depth;
++      int bpp = var->bits_per_pixel;
++
++      if (!fb)
++              return -ENOMEM;
++
++      switch (bpp) {
++      case 8:
++              depth = 8;
++              break;
++      case 16:
++              depth = (var->green.length == 6) ? 16 : 15;
++              break;
++      case 24:                /* assume this is 32bpp / depth 24 */
++              bpp = 32;
++              /* fallthrough */
++      case 32:
++              depth = (var->transp.length > 0) ? 32 : 24;
++              break;
++      default:
++              DRM_ERROR("Illegal BPP\n");
++              return -EINVAL;
++      }
++
++      pitch = ((var->xres * ((bpp + 1) / 8)) + 0x3f) & ~0x3f;
++
++      if ((pitch * var->yres) > (psbfb->bo->num_pages << PAGE_SHIFT)) {
++#if 1
++              /* Need to resize the fb object.
++               * But the generic fbdev code doesn't really understand
++               * that we can do this. So disable for now.
++               */
++              DRM_INFO("Can't support requested size, too big!\n");
++              return -EINVAL;
++#else
++              int ret;
++              struct ttm_buffer_object *fbo = NULL, *tfbo;
++              struct ttm_bo_kmap_obj tmp_kmap, tkmap;
++
++              ret = ttm_buffer_object_create(bdev,
++                                             pitch * var->yres,
++                                             ttm_bo_type_kernel,
++                                             TTM_PL_FLAG_MEM_TT |
++                                             TTM_PL_FLAG_MEM_VRAM |
++                                             TTM_PL_FLAG_NO_EVICT,
++                                             0, 0, &fbo);
++              if (ret || !fbo) {
++                      DRM_ERROR
++                          ("failed to allocate new resized framebuffer\n");
++                      return -ENOMEM;
++              }
++
++              ret = ttm_bo_kmap(fbo, 0, fbo->num_pages, &tmp_kmap);
++              if (ret) {
++                      DRM_ERROR("failed to kmap framebuffer.\n");
++                      ttm_bo_usage_deref_unlocked(&fbo);
++                      return -EINVAL;
++              }
++
++              DRM_DEBUG("allocated %dx%d fb: 0x%08lx, bo %p\n",
++                        fb->width, fb->height, fb->offset, fbo);
++
++              /* set new screen base */
++              info->screen_base = tmp_kmap.virtual;
++
++              tkmap = fb->kmap;
++              fb->kmap = tmp_kmap;
++              ttm_bo_kunmap(&tkmap);
++
++              tfbo = fb->bo;
++              fb->bo = fbo;
++              ttm_bo_usage_deref_unlocked(&tfbo);
++#endif
++      }
++
++      psbfb->offset = psbfb->bo->offset - dev_priv->pg->gatt_start;
++      fb->width = var->xres;
++      fb->height = var->yres;
++      fb->bits_per_pixel = bpp;
++      fb->pitch = pitch;
++      fb->depth = depth;
++
++      info->fix.line_length = psbfb->base.pitch;
++      info->fix.visual =
++          (psbfb->base.depth ==
++           8) ? FB_VISUAL_PSEUDOCOLOR : FB_VISUAL_DIRECTCOLOR;
++
++      /* some fbdev's apps don't want these to change */
++      info->fix.smem_start = dev->mode_config.fb_base + psbfb->offset;
++
++#if 0
++      /* relates to resize - disable */
++      info->fix.smem_len = info->fix.line_length * var->yres;
++      info->screen_size = info->fix.smem_len; /* ??? */
++#endif
++
++      /* Should we walk the output's modelist or just create our own ???
++       * For now, we create and destroy a mode based on the incoming
++       * parameters. But there's commented out code below which scans
++       * the output list too.
++       */
++#if 1
++      /* This code is now in the for loop futher down. */
++#endif
++
++      {
++              struct drm_crtc *crtc;
++              int ret;
++              int i;
++
++              list_for_each_entry(crtc, &dev->mode_config.crtc_list,
++                                  head) {
++                      struct psb_intel_crtc *psb_intel_crtc =
++                          to_psb_intel_crtc(crtc);
++
++                      for (i = 0; i < par->crtc_count; i++)
++                              if (crtc->base.id == par->crtc_ids[i])
++                                      break;
++
++                      if (i == par->crtc_count)
++                              continue;
++
++                      if (psb_intel_crtc->mode_set.num_connectors == 0)
++                              continue;
++
++#if 1
++                      drm_mode =
++                          psbfb_find_first_mode(&info->var, info, crtc);
++                      if (!drm_mode)
++                              DRM_ERROR("No matching mode found\n");
++                      psb_intel_crtc->mode_set.mode = drm_mode;
++#endif
++
++#if 0                         /* FIXME: TH */
++                      if (crtc->fb == psb_intel_crtc->mode_set.fb) {
++#endif
++                              DRM_DEBUG
++                                  ("setting mode on crtc %p with id %u\n",
++                                   crtc, crtc->base.id);
++                              ret =
++                                  crtc->funcs->
++                                  set_config(&psb_intel_crtc->mode_set);
++                              if (ret) {
++                                      DRM_ERROR("Failed setting mode\n");
++                                      return ret;
++                              }
++#if 0
++                      }
++#endif
++              }
++              DRM_DEBUG("Set par returned OK.\n");
++              return 0;
++      }
++
++      return 0;
++}
++#if 0
++static int psbfb_2d_submit(struct drm_psb_private *dev_priv, uint32_t *cmdbuf,
++                         unsigned size)
++{
++      int ret = 0;
++      int i;
++      unsigned submit_size;
++
++      while (size > 0) {
++              submit_size = (size < 0x60) ? size : 0x60;
++              size -= submit_size;
++              ret = psb_2d_wait_available(dev_priv, submit_size);
++              if (ret)
++                      return ret;
++
++              submit_size <<= 2;
++              for (i = 0; i < submit_size; i += 4) {
++                      PSB_WSGX32(*cmdbuf++, PSB_SGX_2D_SLAVE_PORT + i);
++              }
++              (void)PSB_RSGX32(PSB_SGX_2D_SLAVE_PORT + i - 4);
++      }
++      return 0;
++}
++
++static int psb_accel_2d_fillrect(struct drm_psb_private *dev_priv,
++                               uint32_t dst_offset, uint32_t dst_stride,
++                               uint32_t dst_format, uint16_t dst_x,
++                               uint16_t dst_y, uint16_t size_x,
++                               uint16_t size_y, uint32_t fill)
++{
++      uint32_t buffer[10];
++      uint32_t *buf;
++
++      buf = buffer;
++
++      *buf++ = PSB_2D_FENCE_BH;
++
++      *buf++ =
++          PSB_2D_DST_SURF_BH | dst_format | (dst_stride <<
++                                             PSB_2D_DST_STRIDE_SHIFT);
++      *buf++ = dst_offset;
++
++      *buf++ =
++          PSB_2D_BLIT_BH |
++          PSB_2D_ROT_NONE |
++          PSB_2D_COPYORDER_TL2BR |
++          PSB_2D_DSTCK_DISABLE |
++          PSB_2D_SRCCK_DISABLE | PSB_2D_USE_FILL | PSB_2D_ROP3_PATCOPY;
++
++      *buf++ = fill << PSB_2D_FILLCOLOUR_SHIFT;
++      *buf++ =
++          (dst_x << PSB_2D_DST_XSTART_SHIFT) | (dst_y <<
++                                                PSB_2D_DST_YSTART_SHIFT);
++      *buf++ =
++          (size_x << PSB_2D_DST_XSIZE_SHIFT) | (size_y <<
++                                                PSB_2D_DST_YSIZE_SHIFT);
++      *buf++ = PSB_2D_FLUSH_BH;
++
++      return psbfb_2d_submit(dev_priv, buffer, buf - buffer);
++}
++
++static void psbfb_fillrect_accel(struct fb_info *info,
++                               const struct fb_fillrect *r)
++{
++      struct psbfb_par *par = info->par;
++      struct psb_framebuffer *psbfb = par->psbfb;
++      struct drm_framebuffer *fb = &psbfb->base;
++      struct drm_psb_private *dev_priv = par->dev->dev_private;
++      uint32_t offset;
++      uint32_t stride;
++      uint32_t format;
++
++      if (!fb)
++              return;
++
++      offset = psbfb->offset;
++      stride = fb->pitch;
++
++      switch (fb->depth) {
++      case 8:
++              format = PSB_2D_DST_332RGB;
++              break;
++      case 15:
++              format = PSB_2D_DST_555RGB;
++              break;
++      case 16:
++              format = PSB_2D_DST_565RGB;
++              break;
++      case 24:
++      case 32:
++              /* this is wrong but since we don't do blending its okay */
++              format = PSB_2D_DST_8888ARGB;
++              break;
++      default:
++              /* software fallback */
++              cfb_fillrect(info, r);
++              return;
++      }
++
++      psb_accel_2d_fillrect(dev_priv,
++                            offset, stride, format,
++                            r->dx, r->dy, r->width, r->height, r->color);
++}
++
++static void psbfb_fillrect(struct fb_info *info,
++                         const struct fb_fillrect *rect)
++{
++      struct psbfb_par *par = info->par;
++      struct drm_device *dev = par->dev;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      if (unlikely(info->state != FBINFO_STATE_RUNNING))
++              return;
++
++      if (info->flags & FBINFO_HWACCEL_DISABLED)
++              return cfb_fillrect(info, rect);
++      /*
++       * psbfb_fillrect is atomic so need to do instantaneous check of
++       * power on
++       */
++      if (powermgmt_is_suspend_in_progress(PSB_GRAPHICS_ISLAND) || powermgmt_is_resume_in_progress(PSB_GRAPHICS_ISLAND) ||
++          !powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND))
++              return cfb_fillrect(info, rect);
++      if (psb_2d_trylock(dev_priv)) {
++              psbfb_fillrect_accel(info, rect);
++              psb_2d_unlock(dev_priv);
++              if (drm_psb_ospm && IS_MRST(dev))
++                      schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      } else
++              cfb_fillrect(info, rect);
++}
++
++uint32_t psb_accel_2d_copy_direction(int xdir, int ydir)
++{
++      if (xdir < 0)
++              return (ydir <
++                       0) ? PSB_2D_COPYORDER_BR2TL :
++                      PSB_2D_COPYORDER_TR2BL;
++      else
++              return (ydir <
++                       0) ? PSB_2D_COPYORDER_BL2TR :
++                      PSB_2D_COPYORDER_TL2BR;
++}
++
++/*
++ * @srcOffset in bytes
++ * @srcStride in bytes
++ * @srcFormat psb 2D format defines
++ * @dstOffset in bytes
++ * @dstStride in bytes
++ * @dstFormat psb 2D format defines
++ * @srcX offset in pixels
++ * @srcY offset in pixels
++ * @dstX offset in pixels
++ * @dstY offset in pixels
++ * @sizeX of the copied area
++ * @sizeY of the copied area
++ */
++static int psb_accel_2d_copy(struct drm_psb_private *dev_priv,
++                           uint32_t src_offset, uint32_t src_stride,
++                           uint32_t src_format, uint32_t dst_offset,
++                           uint32_t dst_stride, uint32_t dst_format,
++                           uint16_t src_x, uint16_t src_y,
++                           uint16_t dst_x, uint16_t dst_y,
++                           uint16_t size_x, uint16_t size_y)
++{
++      uint32_t blit_cmd;
++      uint32_t buffer[10];
++      uint32_t *buf;
++      uint32_t direction;
++
++      buf = buffer;
++
++      direction =
++          psb_accel_2d_copy_direction(src_x - dst_x, src_y - dst_y);
++
++      if (direction == PSB_2D_COPYORDER_BR2TL ||
++          direction == PSB_2D_COPYORDER_TR2BL) {
++              src_x += size_x - 1;
++              dst_x += size_x - 1;
++      }
++      if (direction == PSB_2D_COPYORDER_BR2TL ||
++          direction == PSB_2D_COPYORDER_BL2TR) {
++              src_y += size_y - 1;
++              dst_y += size_y - 1;
++      }
++
++      blit_cmd =
++          PSB_2D_BLIT_BH |
++          PSB_2D_ROT_NONE |
++          PSB_2D_DSTCK_DISABLE |
++          PSB_2D_SRCCK_DISABLE |
++          PSB_2D_USE_PAT | PSB_2D_ROP3_SRCCOPY | direction;
++
++      *buf++ = PSB_2D_FENCE_BH;
++      *buf++ =
++          PSB_2D_DST_SURF_BH | dst_format | (dst_stride <<
++                                             PSB_2D_DST_STRIDE_SHIFT);
++      *buf++ = dst_offset;
++      *buf++ =
++          PSB_2D_SRC_SURF_BH | src_format | (src_stride <<
++                                             PSB_2D_SRC_STRIDE_SHIFT);
++      *buf++ = src_offset;
++      *buf++ =
++          PSB_2D_SRC_OFF_BH | (src_x << PSB_2D_SRCOFF_XSTART_SHIFT) |
++          (src_y << PSB_2D_SRCOFF_YSTART_SHIFT);
++      *buf++ = blit_cmd;
++      *buf++ =
++          (dst_x << PSB_2D_DST_XSTART_SHIFT) | (dst_y <<
++                                                PSB_2D_DST_YSTART_SHIFT);
++      *buf++ =
++          (size_x << PSB_2D_DST_XSIZE_SHIFT) | (size_y <<
++                                                PSB_2D_DST_YSIZE_SHIFT);
++      *buf++ = PSB_2D_FLUSH_BH;
++
++      return psbfb_2d_submit(dev_priv, buffer, buf - buffer);
++}
++
++static void psbfb_copyarea_accel(struct fb_info *info,
++                               const struct fb_copyarea *a)
++{
++      struct psbfb_par *par = info->par;
++      struct psb_framebuffer *psbfb = par->psbfb;
++      struct drm_framebuffer *fb = &psbfb->base;
++      struct drm_psb_private *dev_priv = par->dev->dev_private;
++      uint32_t offset;
++      uint32_t stride;
++      uint32_t src_format;
++      uint32_t dst_format;
++
++      if (!fb)
++              return;
++
++      offset = psbfb->offset;
++      stride = fb->pitch;
++
++      switch (fb->depth) {
++      case 8:
++              src_format = PSB_2D_SRC_332RGB;
++              dst_format = PSB_2D_DST_332RGB;
++              break;
++      case 15:
++              src_format = PSB_2D_SRC_555RGB;
++              dst_format = PSB_2D_DST_555RGB;
++              break;
++      case 16:
++              src_format = PSB_2D_SRC_565RGB;
++              dst_format = PSB_2D_DST_565RGB;
++              break;
++      case 24:
++      case 32:
++              /* this is wrong but since we don't do blending its okay */
++              src_format = PSB_2D_SRC_8888ARGB;
++              dst_format = PSB_2D_DST_8888ARGB;
++              break;
++      default:
++              /* software fallback */
++              cfb_copyarea(info, a);
++              return;
++      }
++
++      psb_accel_2d_copy(dev_priv,
++                        offset, stride, src_format,
++                        offset, stride, dst_format,
++                        a->sx, a->sy, a->dx, a->dy, a->width, a->height);
++}
++
++static void psbfb_copyarea(struct fb_info *info,
++                         const struct fb_copyarea *region)
++{
++      struct psbfb_par *par = info->par;
++      struct drm_device *dev = par->dev;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      if (unlikely(info->state != FBINFO_STATE_RUNNING))
++              return;
++
++      if (info->flags & FBINFO_HWACCEL_DISABLED)
++              return cfb_copyarea(info, region);
++      /*
++       * psbfb_copyarea is atomic so need to do instantaneous check of
++       * power on
++       */
++      if (powermgmt_is_suspend_in_progress(PSB_GRAPHICS_ISLAND) || powermgmt_is_resume_in_progress(PSB_GRAPHICS_ISLAND) ||
++          !powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND))
++              return cfb_copyarea(info, region);
++
++      if (psb_2d_trylock(dev_priv)) {
++              psbfb_copyarea_accel(info, region);
++              psb_2d_unlock(dev_priv);
++              if (drm_psb_ospm && IS_MRST(dev))
++                      schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      } else
++              cfb_copyarea(info, region);
++}
++#endif
++void psbfb_imageblit(struct fb_info *info, const struct fb_image *image)
++{
++      if (unlikely(info->state != FBINFO_STATE_RUNNING))
++              return;
++
++      cfb_imageblit(info, image);
++}
++
++static void psbfb_onoff(struct fb_info *info, int dpms_mode)
++{
++      struct psbfb_par *par = info->par;
++      struct drm_device *dev = par->dev;
++      struct drm_crtc *crtc;
++      struct drm_encoder *encoder;
++      int i;
++
++      /*
++       * For each CRTC in this fb, find all associated encoders
++       * and turn them off, then turn off the CRTC.
++       */
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              struct drm_crtc_helper_funcs *crtc_funcs =
++                  crtc->helper_private;
++
++              for (i = 0; i < par->crtc_count; i++)
++                      if (crtc->base.id == par->crtc_ids[i])
++                              break;
++
++              if (i == par->crtc_count)
++                      continue;
++
++              if (dpms_mode == DRM_MODE_DPMS_ON)
++                      crtc_funcs->dpms(crtc, dpms_mode);
++
++              /* Found a CRTC on this fb, now find encoders */
++              list_for_each_entry(encoder,
++                                  &dev->mode_config.encoder_list, head) {
++                      if (encoder->crtc == crtc) {
++                              struct drm_encoder_helper_funcs
++                              *encoder_funcs;
++                              encoder_funcs = encoder->helper_private;
++                              encoder_funcs->dpms(encoder, dpms_mode);
++                      }
++              }
++
++              if (dpms_mode == DRM_MODE_DPMS_OFF)
++                      crtc_funcs->dpms(crtc, dpms_mode);
++      }
++}
++
++static int psbfb_blank(int blank_mode, struct fb_info *info)
++{
++      struct psbfb_par *par = info->par;
++      
++      par->dpms_state = blank_mode;
++      PSB_DEBUG_PM("psbfb_blank \n");
++      switch (blank_mode) {
++      case FB_BLANK_UNBLANK:
++              psbfb_onoff(info, DRM_MODE_DPMS_ON);
++              break;
++      case FB_BLANK_NORMAL:
++              psbfb_onoff(info, DRM_MODE_DPMS_STANDBY);
++              break;
++      case FB_BLANK_HSYNC_SUSPEND:
++              psbfb_onoff(info, DRM_MODE_DPMS_STANDBY);
++              break;
++      case FB_BLANK_VSYNC_SUSPEND:
++              psbfb_onoff(info, DRM_MODE_DPMS_SUSPEND);
++              break;
++      case FB_BLANK_POWERDOWN:
++              psbfb_onoff(info, DRM_MODE_DPMS_OFF);
++              break;
++      }
++
++      return 0;
++}
++
++
++static int psbfb_kms_off(struct drm_device *dev, int suspend)
++{
++      struct drm_framebuffer *fb = 0;
++      DRM_DEBUG("psbfb_kms_off_ioctl\n");
++
++      mutex_lock(&dev->mode_config.mutex);
++      list_for_each_entry(fb, &dev->mode_config.fb_list, head) {
++              struct fb_info *info = fb->fbdev;
++
++              if (suspend) {
++                      fb_set_suspend(info, 1);
++                      psbfb_blank(FB_BLANK_POWERDOWN, info);
++              }
++      }
++      mutex_unlock(&dev->mode_config.mutex);
++      return 0;
++}
++
++int psbfb_kms_off_ioctl(struct drm_device *dev, void *data,
++                      struct drm_file *file_priv)
++{
++      int ret;
++
++      if (drm_psb_no_fb)
++              return 0;
++      acquire_console_sem();
++      ret = psbfb_kms_off(dev, 0);
++      release_console_sem();
++
++      return ret;
++}
++
++static int psbfb_kms_on(struct drm_device *dev, int resume)
++{
++      struct drm_framebuffer *fb = 0;
++
++      DRM_DEBUG("psbfb_kms_on_ioctl\n");
++
++      mutex_lock(&dev->mode_config.mutex);
++      list_for_each_entry(fb, &dev->mode_config.fb_list, head) {
++              struct fb_info *info = fb->fbdev;
++
++              if (resume) {
++                      fb_set_suspend(info, 0);
++                      psbfb_blank(FB_BLANK_UNBLANK, info);
++              }
++
++      }
++      mutex_unlock(&dev->mode_config.mutex);
++
++      return 0;
++}
++
++int psbfb_kms_on_ioctl(struct drm_device *dev, void *data,
++                     struct drm_file *file_priv)
++{
++      int ret;
++
++      if (drm_psb_no_fb)
++              return 0;
++      acquire_console_sem();
++      ret = psbfb_kms_on(dev, 0);
++      release_console_sem();
++      drm_helper_disable_unused_functions(dev);
++      return ret;
++}
++
++void psbfb_suspend(struct drm_device *dev)
++{
++      acquire_console_sem();
++      psbfb_kms_off(dev, 1);
++      release_console_sem();
++}
++
++void psbfb_resume(struct drm_device *dev)
++{
++      acquire_console_sem();
++      psbfb_kms_on(dev, 1);
++      release_console_sem();
++      drm_helper_disable_unused_functions(dev);
++}
++
++static int psbfb_mmap(struct fb_info *info, struct vm_area_struct *vma)
++{
++      struct psbfb_par *par = info->par;
++      struct psb_framebuffer *psbfb = par->psbfb;
++      struct ttm_buffer_object *bo = psbfb->bo;
++      unsigned long size = (vma->vm_end - vma->vm_start) >> PAGE_SHIFT;
++      unsigned long offset = vma->vm_pgoff;
++
++      if (vma->vm_pgoff != 0)
++              return -EINVAL;
++      if (vma->vm_pgoff > (~0UL >> PAGE_SHIFT))
++              return -EINVAL;
++      if (offset + size > bo->num_pages)
++              return -EINVAL;
++
++      mutex_lock(&bo->mutex);
++      if (!psbfb->addr_space)
++              psbfb->addr_space = vma->vm_file->f_mapping;
++      mutex_unlock(&bo->mutex);
++
++      return ttm_fbdev_mmap(vma, bo);
++}
++
++int psbfb_sync(struct fb_info *info)
++{
++      struct psbfb_par *par = info->par;
++      struct drm_psb_private *dev_priv = par->dev->dev_private;
++
++      if (psb_2d_trylock(dev_priv)) {
++              /*
++               * psbfb_sync is atomic so need to do instantaneous check of
++               * power on
++               */
++              if (!powermgmt_is_suspend_in_progress(PSB_GRAPHICS_ISLAND) &&
++                  !powermgmt_is_resume_in_progress(PSB_GRAPHICS_ISLAND) &&
++                   powermgmt_is_hw_on(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND))
++                      psb_idle_2d(par->dev);
++
++              psb_2d_unlock(dev_priv);
++      } else
++              udelay(5);
++
++      return 0;
++}
++
++static struct fb_ops psbfb_ops = {
++      .owner = THIS_MODULE,
++      .fb_check_var = psbfb_check_var,
++      .fb_set_par = psbfb_set_par,
++      .fb_setcolreg = psbfb_setcolreg,
++      .fb_fillrect = cfb_fillrect,
++      .fb_copyarea = cfb_copyarea,
++      .fb_imageblit = cfb_imageblit,
++      .fb_mmap = psbfb_mmap,
++      /*.fb_sync = psbfb_sync,*/
++      .fb_blank = psbfb_blank,
++};
++
++static struct drm_mode_set panic_mode;
++
++int psbfb_panic(struct notifier_block *n, unsigned long ununsed,
++              void *panic_str)
++{
++      DRM_ERROR("panic occurred, switching back to text console\n");
++      drm_crtc_helper_set_config(&panic_mode);
++
++      return 0;
++}
++EXPORT_SYMBOL(psbfb_panic);
++
++static struct notifier_block paniced = {
++      .notifier_call = psbfb_panic,
++};
++
++
++static struct drm_framebuffer *psb_framebuffer_create
++                      (struct drm_device *dev, struct drm_mode_fb_cmd *r,
++                       void *mm_private)
++{
++      struct psb_framebuffer *fb;
++      int ret;
++
++      fb = kzalloc(sizeof(*fb), GFP_KERNEL);
++      if (!fb)
++              return NULL;
++
++      ret = drm_framebuffer_init(dev, &fb->base, &psb_fb_funcs);
++
++      if (ret)
++              goto err;
++
++      drm_helper_mode_fill_fb_struct(&fb->base, r);
++
++      fb->bo = mm_private;
++
++      return &fb->base;
++
++err:
++      kfree(fb);
++      return NULL;
++}
++
++static struct drm_framebuffer *psb_user_framebuffer_create
++                      (struct drm_device *dev, struct drm_file *filp,
++                       struct drm_mode_fb_cmd *r)
++{
++      struct psb_framebuffer *psbfb;
++      struct ttm_buffer_object *bo = NULL;
++      struct drm_framebuffer *fb;
++      struct fb_info *info;
++      struct ttm_bo_kmap_obj tmp_kmap;
++      bool is_iomem;
++      uint64_t size;
++
++      bo = ttm_buffer_object_lookup(psb_fpriv(filp)->tfile, r->handle);
++      if (!bo)
++              return NULL;
++      /*the buffer is used as fb, then it should not be put in swap list*/
++      list_del_init(&bo->swap);
++
++      /* JB: TODO not drop, make smarter */
++      size = ((uint64_t) bo->num_pages) << PAGE_SHIFT;
++      if (size < r->height * r->pitch)
++              return NULL;
++
++      /* JB: TODO not drop, refcount buffer */
++//    return psb_framebuffer_create(dev, r, bo);
++
++      fb = psb_framebuffer_create(dev, r, bo);
++      if (!fb) {
++              DRM_ERROR("failed to allocate fb.\n");
++              return NULL;
++      }
++
++      psbfb = to_psb_fb(fb);
++      psbfb->bo = bo;
++
++      info = framebuffer_alloc(sizeof(struct psbfb_par), &dev->pdev->dev);
++      if (!info) {
++              return NULL;
++      }
++
++      strcpy(info->fix.id, "psbfb");
++      info->fix.type = FB_TYPE_PACKED_PIXELS;
++      info->fix.visual = FB_VISUAL_TRUECOLOR;
++      info->fix.type_aux = 0;
++      info->fix.xpanstep = 1; /* doing it in hw */
++      info->fix.ypanstep = 1; /* doing it in hw */
++      info->fix.ywrapstep = 0;
++      info->fix.accel = FB_ACCEL_I830;
++      info->fix.type_aux = 0;
++
++      info->flags = FBINFO_DEFAULT;
++
++      info->fbops = &psbfb_ops;
++
++      info->fix.line_length = fb->pitch;
++      info->fix.smem_start =
++          dev->mode_config.fb_base + psbfb->bo->offset;
++      info->fix.smem_len = size;
++
++      info->flags = FBINFO_DEFAULT;
++
++      if (ttm_bo_kmap(psbfb->bo, 0, psbfb->bo->num_pages, &tmp_kmap) != 0) {
++              DRM_ERROR("error mapping fb\n");
++              return NULL;
++      }
++
++      psbfb->kmap = tmp_kmap;
++
++      info->screen_base = ttm_kmap_obj_virtual(&tmp_kmap, &is_iomem);
++      info->screen_size = size;
++
++/* it is called for kms flip, the back buffer has been rendered, then we should not clear it*/
++#if 0
++      if (is_iomem)
++              memset_io(info->screen_base, 0, size);
++      else
++              memset(info->screen_base, 0, size);
++#endif
++      info->pseudo_palette = fb->pseudo_palette;
++      info->var.xres_virtual = fb->width;
++      info->var.yres_virtual = fb->height;
++      info->var.bits_per_pixel = fb->bits_per_pixel;
++      info->var.xoffset = 0;
++      info->var.yoffset = 0;
++      info->var.activate = FB_ACTIVATE_NOW;
++      info->var.height = -1;
++      info->var.width = -1;
++
++      info->var.xres = r->width;
++      info->var.yres = r->height;
++
++      info->fix.mmio_start = pci_resource_start(dev->pdev, 0);
++      info->fix.mmio_len = pci_resource_len(dev->pdev, 0);
++
++      info->pixmap.size = 64 * 1024;
++      info->pixmap.buf_align = 8;
++      info->pixmap.access_align = 32;
++      info->pixmap.flags = FB_PIXMAP_SYSTEM;
++      info->pixmap.scan_align = 1;
++
++      fill_fb_bitfield(&info->var, fb->depth);
++
++      register_framebuffer(info);
++
++      fb->fbdev = info;
++
++      return fb;
++}
++
++int psbfb_create(struct drm_device *dev, uint32_t fb_width,
++               uint32_t fb_height, uint32_t surface_width,
++               uint32_t surface_height, struct psb_framebuffer **psbfb_p)
++{
++      struct fb_info *info;
++      struct psbfb_par *par;
++      struct drm_framebuffer *fb;
++      struct psb_framebuffer *psbfb;
++      struct ttm_bo_kmap_obj tmp_kmap;
++      struct drm_mode_fb_cmd mode_cmd;
++      struct device *device = &dev->pdev->dev;
++      struct ttm_bo_device *bdev = &psb_priv(dev)->bdev;
++      struct ttm_buffer_object *fbo = NULL;
++      int size, aligned_size, ret;
++      bool is_iomem;
++
++      mode_cmd.width = surface_width; /* crtc->desired_mode->hdisplay; */
++      mode_cmd.height = surface_height; /* crtc->desired_mode->vdisplay; */
++
++      mode_cmd.bpp = 32;
++      mode_cmd.pitch = mode_cmd.width * ((mode_cmd.bpp + 1) / 8);
++      mode_cmd.depth = 24;
++
++      size = mode_cmd.pitch * mode_cmd.height;
++      aligned_size = ALIGN(size, PAGE_SIZE);
++      ret = ttm_buffer_object_create(bdev,
++                                     aligned_size,
++                                     ttm_bo_type_kernel,
++                                     TTM_PL_FLAG_TT |
++                                     TTM_PL_FLAG_VRAM |
++                                     TTM_PL_FLAG_NO_EVICT,
++                                     0, 0, 0, NULL, &fbo);
++
++      if (unlikely(ret != 0)) {
++              DRM_ERROR("failed to allocate framebuffer.\n");
++              return -ENOMEM;
++      }
++
++      mutex_lock(&dev->struct_mutex);
++      fb = psb_framebuffer_create(dev, &mode_cmd, fbo);
++      if (!fb) {
++              DRM_ERROR("failed to allocate fb.\n");
++              ret = -ENOMEM;
++              goto out_err0;
++      }
++      psbfb = to_psb_fb(fb);
++      psbfb->bo = fbo;
++
++      list_add(&fb->filp_head, &dev->mode_config.fb_kernel_list);
++      info = framebuffer_alloc(sizeof(struct psbfb_par), device);
++      if (!info) {
++              ret = -ENOMEM;
++              goto out_err1;
++      }
++
++      par = info->par;
++      par->psbfb = psbfb;
++
++      strcpy(info->fix.id, "psbfb");
++      info->fix.type = FB_TYPE_PACKED_PIXELS;
++      info->fix.visual = FB_VISUAL_TRUECOLOR;
++      info->fix.type_aux = 0;
++      info->fix.xpanstep = 1; /* doing it in hw */
++      info->fix.ypanstep = 1; /* doing it in hw */
++      info->fix.ywrapstep = 0;
++      info->fix.accel = FB_ACCEL_I830;
++      info->fix.type_aux = 0;
++
++      info->flags = FBINFO_DEFAULT;
++
++      info->fbops = &psbfb_ops;
++
++      info->fix.line_length = fb->pitch;
++      info->fix.smem_start =
++          dev->mode_config.fb_base + psbfb->bo->offset;
++      info->fix.smem_len = size;
++
++      info->flags = FBINFO_DEFAULT;
++
++      ret = ttm_bo_kmap(psbfb->bo, 0, psbfb->bo->num_pages, &tmp_kmap);
++      if (ret) {
++              DRM_ERROR("error mapping fb: %d\n", ret);
++              goto out_err2;
++      }
++
++
++      info->screen_base = ttm_kmap_obj_virtual(&tmp_kmap, &is_iomem);
++      info->screen_size = size;
++
++      if (is_iomem)
++              memset_io(info->screen_base, 0, size);
++      else
++              memset(info->screen_base, 0, size);
++
++      info->pseudo_palette = fb->pseudo_palette;
++      info->var.xres_virtual = fb->width;
++      info->var.yres_virtual = fb->height;
++      info->var.bits_per_pixel = fb->bits_per_pixel;
++      info->var.xoffset = 0;
++      info->var.yoffset = 0;
++      info->var.activate = FB_ACTIVATE_NOW;
++      info->var.height = -1;
++      info->var.width = -1;
++
++      info->var.xres = fb_width;
++      info->var.yres = fb_height;
++
++      info->fix.mmio_start = pci_resource_start(dev->pdev, 0);
++      info->fix.mmio_len = pci_resource_len(dev->pdev, 0);
++
++      info->pixmap.size = 64 * 1024;
++      info->pixmap.buf_align = 8;
++      info->pixmap.access_align = 32;
++      info->pixmap.flags = FB_PIXMAP_SYSTEM;
++      info->pixmap.scan_align = 1;
++
++      DRM_DEBUG("fb depth is %d\n", fb->depth);
++      DRM_DEBUG("   pitch is %d\n", fb->pitch);
++      fill_fb_bitfield(&info->var, fb->depth);
++
++      fb->fbdev = info;
++
++      par->dev = dev;
++
++      /* To allow resizing without swapping buffers */
++      printk(KERN_INFO"allocated %dx%d fb: 0x%08lx, bo %p\n",
++             psbfb->base.width,
++             psbfb->base.height, psbfb->bo->offset, psbfb->bo);
++
++      if (psbfb_p)
++              *psbfb_p = psbfb;
++
++      mutex_unlock(&dev->struct_mutex);
++
++      return 0;
++out_err2:
++      unregister_framebuffer(info);
++out_err1:
++      fb->funcs->destroy(fb);
++out_err0:
++      mutex_unlock(&dev->struct_mutex);
++      ttm_bo_unref(&fbo);
++      return ret;
++}
++
++static int psbfb_multi_fb_probe_crtc(struct drm_device *dev,
++                                   struct drm_crtc *crtc)
++{
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      struct drm_framebuffer *fb = crtc->fb;
++      struct psb_framebuffer *psbfb = to_psb_fb(crtc->fb);
++      struct drm_connector *connector;
++      struct fb_info *info;
++      struct psbfb_par *par;
++      struct drm_mode_set *modeset;
++      unsigned int width, height;
++      int new_fb = 0;
++      int ret, i, conn_count;
++
++      if (!drm_helper_crtc_in_use(crtc))
++              return 0;
++
++      if (!crtc->desired_mode)
++              return 0;
++
++      width = crtc->desired_mode->hdisplay;
++      height = crtc->desired_mode->vdisplay;
++
++      /* is there an fb bound to this crtc already */
++      if (!psb_intel_crtc->mode_set.fb) {
++              ret =
++                  psbfb_create(dev, width, height, width, height,
++                               &psbfb);
++              if (ret)
++                      return -EINVAL;
++              new_fb = 1;
++      } else {
++              fb = psb_intel_crtc->mode_set.fb;
++              if ((fb->width < width) || (fb->height < height))
++                      return -EINVAL;
++      }
++
++      info = fb->fbdev;
++      par = info->par;
++
++      modeset = &psb_intel_crtc->mode_set;
++      modeset->fb = fb;
++      conn_count = 0;
++      list_for_each_entry(connector, &dev->mode_config.connector_list,
++                          head) {
++              if (connector->encoder)
++                      if (connector->encoder->crtc == modeset->crtc) {
++                              modeset->connectors[conn_count] =
++                                  connector;
++                              conn_count++;
++                              if (conn_count > INTELFB_CONN_LIMIT)
++                                      BUG();
++                      }
++      }
++
++      for (i = conn_count; i < INTELFB_CONN_LIMIT; i++)
++              modeset->connectors[i] = NULL;
++
++      par->crtc_ids[0] = crtc->base.id;
++
++      modeset->num_connectors = conn_count;
++      if (modeset->mode != modeset->crtc->desired_mode)
++              modeset->mode = modeset->crtc->desired_mode;
++
++      par->crtc_count = 1;
++
++      if (new_fb) {
++              info->var.pixclock = -1;
++              if (register_framebuffer(info) < 0)
++                      return -EINVAL;
++      } else
++              psbfb_set_par(info);
++
++      printk(KERN_INFO "fb%d: %s frame buffer device\n", info->node,
++             info->fix.id);
++
++      /* Switch back to kernel console on panic */
++      panic_mode = *modeset;
++      atomic_notifier_chain_register(&panic_notifier_list, &paniced);
++      printk(KERN_INFO "registered panic notifier\n");
++
++      return 0;
++}
++
++static int psbfb_multi_fb_probe(struct drm_device *dev)
++{
++
++      struct drm_crtc *crtc;
++      int ret = 0;
++
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              ret = psbfb_multi_fb_probe_crtc(dev, crtc);
++              if (ret)
++                      return ret;
++      }
++      return ret;
++}
++
++static int psbfb_single_fb_probe(struct drm_device *dev)
++{
++      struct drm_crtc *crtc;
++      struct drm_connector *connector;
++      unsigned int fb_width = (unsigned) -1, fb_height = (unsigned) -1;
++      unsigned int surface_width = 0, surface_height = 0;
++      int new_fb = 0;
++      int crtc_count = 0;
++      int ret, i, conn_count = 0;
++      struct fb_info *info;
++      struct psbfb_par *par;
++      struct drm_mode_set *modeset = NULL;
++      struct drm_framebuffer *fb = NULL;
++      struct psb_framebuffer *psbfb = NULL;
++
++      /* first up get a count of crtcs now in use and
++       * new min/maxes width/heights */
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              if (drm_helper_crtc_in_use(crtc)) {
++                      if (crtc->desired_mode) {
++                              fb = crtc->fb;
++                              if (crtc->desired_mode->hdisplay <
++                                  fb_width)
++                                      fb_width =
++                                          crtc->desired_mode->hdisplay;
++
++                              if (crtc->desired_mode->vdisplay <
++                                  fb_height)
++                                      fb_height =
++                                          crtc->desired_mode->vdisplay;
++
++                              if (crtc->desired_mode->hdisplay >
++                                  surface_width)
++                                      surface_width =
++                                          crtc->desired_mode->hdisplay;
++
++                              if (crtc->desired_mode->vdisplay >
++                                  surface_height)
++                                      surface_height =
++                                          crtc->desired_mode->vdisplay;
++
++                      }
++                      crtc_count++;
++              }
++      }
++
++      if (crtc_count == 0 || fb_width == -1 || fb_height == -1) {
++              /* hmm everyone went away - assume VGA cable just fell out
++                 and will come back later. */
++              return 0;
++      }
++
++      /* do we have an fb already? */
++      if (list_empty(&dev->mode_config.fb_kernel_list)) {
++              /* create an fb if we don't have one */
++              ret =
++                  psbfb_create(dev, fb_width, fb_height, surface_width,
++                               surface_height, &psbfb);
++              if (ret)
++                      return -EINVAL;
++              new_fb = 1;
++              fb = &psbfb->base;
++      } else {
++              fb = list_first_entry(&dev->mode_config.fb_kernel_list,
++                                    struct drm_framebuffer, filp_head);
++
++              /* if someone hotplugs something bigger than we have already
++               * allocated, we are pwned. As really we can't resize an
++               * fbdev that is in the wild currently due to fbdev not really
++               * being designed for the lower layers moving stuff around
++               * under it. - so in the grand style of things - punt. */
++              if ((fb->width < surface_width)
++                  || (fb->height < surface_height)) {
++                      DRM_ERROR
++                      ("Framebuffer not large enough to scale"
++                       " console onto.\n");
++                      return -EINVAL;
++              }
++      }
++
++      info = fb->fbdev;
++      par = info->par;
++
++      crtc_count = 0;
++      /* okay we need to setup new connector sets in the crtcs */
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++              modeset = &psb_intel_crtc->mode_set;
++              modeset->fb = fb;
++              conn_count = 0;
++              list_for_each_entry(connector,
++                                  &dev->mode_config.connector_list,
++                                  head) {
++                      if (connector->encoder)
++                              if (connector->encoder->crtc ==
++                                  modeset->crtc) {
++                                      modeset->connectors[conn_count] =
++                                          connector;
++                                      conn_count++;
++                                      if (conn_count >
++                                          INTELFB_CONN_LIMIT)
++                                              BUG();
++                              }
++              }
++
++              for (i = conn_count; i < INTELFB_CONN_LIMIT; i++)
++                      modeset->connectors[i] = NULL;
++
++              par->crtc_ids[crtc_count++] = crtc->base.id;
++
++              modeset->num_connectors = conn_count;
++              if (modeset->mode != modeset->crtc->desired_mode)
++                      modeset->mode = modeset->crtc->desired_mode;
++      }
++      par->crtc_count = crtc_count;
++
++      if (new_fb) {
++              info->var.pixclock = -1;
++              if (register_framebuffer(info) < 0)
++                      return -EINVAL;
++      } else
++              psbfb_set_par(info);
++
++      printk(KERN_INFO "fb%d: %s frame buffer device\n", info->node,
++             info->fix.id);
++
++      /* Switch back to kernel console on panic */
++      panic_mode = *modeset;
++      atomic_notifier_chain_register(&panic_notifier_list, &paniced);
++      printk(KERN_INFO "registered panic notifier\n");
++
++      return 0;
++}
++
++int psbfb_probe(struct drm_device *dev)
++{
++      int ret = 0;
++
++      DRM_DEBUG("\n");
++
++      /* something has changed in the lower levels of hell - deal with it
++         here */
++
++      /* two modes : a) 1 fb to rule all crtcs.
++         b) one fb per crtc.
++         two actions 1) new connected device
++         2) device removed.
++         case a/1 : if the fb surface isn't big enough -
++         resize the surface fb.
++         if the fb size isn't big enough - resize fb into surface.
++         if everything big enough configure the new crtc/etc.
++         case a/2 : undo the configuration
++         possibly resize down the fb to fit the new configuration.
++         case b/1 : see if it is on a new crtc - setup a new fb and add it.
++         case b/2 : teardown the new fb.
++       */
++
++      /* mode a first */
++      /* search for an fb */
++      if (0 /*i915_fbpercrtc == 1 */)
++              ret = psbfb_multi_fb_probe(dev);
++      else
++              ret = psbfb_single_fb_probe(dev);
++
++      return ret;
++}
++EXPORT_SYMBOL(psbfb_probe);
++
++int psbfb_remove(struct drm_device *dev, struct drm_framebuffer *fb)
++{
++      struct fb_info *info;
++      struct psb_framebuffer *psbfb = to_psb_fb(fb);
++
++      if (drm_psb_no_fb)
++              return 0;
++
++      info = fb->fbdev;
++
++      if (info) {
++              unregister_framebuffer(info);
++              ttm_bo_kunmap(&psbfb->kmap);
++              ttm_bo_unref(&psbfb->bo);
++              framebuffer_release(info);
++      }
++
++      atomic_notifier_chain_unregister(&panic_notifier_list, &paniced);
++      memset(&panic_mode, 0, sizeof(struct drm_mode_set));
++      return 0;
++}
++EXPORT_SYMBOL(psbfb_remove);
++
++static int psb_user_framebuffer_create_handle(struct drm_framebuffer *fb,
++                                            struct drm_file *file_priv,
++                                            unsigned int *handle)
++{
++      /* JB: TODO currently we can't go from a bo to a handle with ttm */
++      (void) file_priv;
++      *handle = 0;
++      return 0;
++}
++
++static void psb_user_framebuffer_destroy(struct drm_framebuffer *fb)
++{
++      struct drm_device *dev = fb->dev;
++      if (fb->fbdev)
++              psbfb_remove(dev, fb);
++
++      /* JB: TODO not drop, refcount buffer */
++      drm_framebuffer_cleanup(fb);
++
++      kfree(fb);
++}
++
++static const struct drm_mode_config_funcs psb_mode_funcs = {
++      .fb_create = psb_user_framebuffer_create,
++      .fb_changed = psbfb_probe,
++};
++
++static int psb_create_backlight_property(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = (struct drm_psb_private *) dev->dev_private;
++      struct drm_property *backlight;
++
++      if (dev_priv->backlight_property)
++              return 0;
++
++      backlight = drm_property_create(dev, DRM_MODE_PROP_RANGE, "backlight", 2);
++      backlight->values[0] = 0;
++      backlight->values[1] = 100;
++
++      dev_priv->backlight_property = backlight;
++
++      return 0;
++}
++
++static void psb_setup_outputs(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct drm_connector *connector;
++
++      drm_mode_create_scaling_mode_property(dev);
++
++      psb_create_backlight_property(dev);
++
++      if (IS_MRST(dev)) {
++              if (dev_priv->iLVDS_enable)
++                      /* Set up integrated LVDS for MRST */
++                      mrst_lvds_init(dev, &dev_priv->mode_dev);
++              else {
++                      /* Set up integrated MIPI for MRST */
++                      mrst_dsi_init(dev, &dev_priv->mode_dev);
++              }
++      } else {
++              psb_intel_lvds_init(dev, &dev_priv->mode_dev);
++              psb_intel_sdvo_init(dev, SDVOB);
++      }
++
++      list_for_each_entry(connector, &dev->mode_config.connector_list,
++                          head) {
++              struct psb_intel_output *psb_intel_output =
++                  to_psb_intel_output(connector);
++              struct drm_encoder *encoder = &psb_intel_output->enc;
++              int crtc_mask = 0, clone_mask = 0;
++
++              /* valid crtcs */
++              switch (psb_intel_output->type) {
++              case INTEL_OUTPUT_SDVO:
++                      crtc_mask = ((1 << 0) | (1 << 1));
++                      clone_mask = (1 << INTEL_OUTPUT_SDVO);
++                      break;
++              case INTEL_OUTPUT_LVDS:
++                      if (IS_MRST(dev))
++                              crtc_mask = (1 << 0);
++                      else
++                              crtc_mask = (1 << 1);
++
++                      clone_mask = (1 << INTEL_OUTPUT_LVDS);
++                      break;
++              case INTEL_OUTPUT_MIPI:
++                      crtc_mask = (1 << 0);
++                      clone_mask = (1 << INTEL_OUTPUT_MIPI);
++                      break;
++              }
++              encoder->possible_crtcs = crtc_mask;
++              encoder->possible_clones =
++                  psb_intel_connector_clones(dev, clone_mask);
++      }
++}
++
++static void *psb_bo_from_handle(struct drm_device *dev,
++                              struct drm_file *file_priv,
++                              unsigned int handle)
++{
++      return ttm_buffer_object_lookup(psb_fpriv(file_priv)->tfile,
++                                      handle);
++}
++
++static size_t psb_bo_size(struct drm_device *dev, void *bof)
++{
++      struct ttm_buffer_object *bo = bof;
++      return bo->num_pages << PAGE_SHIFT;
++}
++
++static size_t psb_bo_offset(struct drm_device *dev, void *bof)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct ttm_buffer_object *bo = bof;
++
++      size_t offset = bo->offset - dev_priv->pg->gatt_start;
++      DRM_DEBUG("Offset %u\n", offset);
++      return offset;
++}
++
++static int psb_bo_pin_for_scanout(struct drm_device *dev, void *bo)
++{
++#if 0                         /* JB: Not used for the drop */
++      struct ttm_buffer_object *bo = bof;
++              We should do things like check if
++              the buffer is in a scanout : able
++                  place.And make sure that its pinned.
++#endif
++               return 0;
++              }
++
++      static int psb_bo_unpin_for_scanout(struct drm_device *dev,
++                                                  void *bo) {
++#if 0                         /* JB: Not used for the drop */
++              struct ttm_buffer_object *bo = bof;
++#endif
++              return 0;
++      }
++
++      void psb_modeset_init(struct drm_device *dev)
++      {
++              struct drm_psb_private *dev_priv =
++                  (struct drm_psb_private *) dev->dev_private;
++              struct psb_intel_mode_device *mode_dev = &dev_priv->mode_dev;
++              int i;
++              int num_pipe;
++
++              /* Init mm functions */
++              mode_dev->bo_from_handle = psb_bo_from_handle;
++              mode_dev->bo_size = psb_bo_size;
++              mode_dev->bo_offset = psb_bo_offset;
++              mode_dev->bo_pin_for_scanout = psb_bo_pin_for_scanout;
++              mode_dev->bo_unpin_for_scanout = psb_bo_unpin_for_scanout;
++
++              drm_mode_config_init(dev);
++
++              dev->mode_config.min_width = 0;
++              dev->mode_config.min_height = 0;
++
++              dev->mode_config.funcs = (void *) &psb_mode_funcs;
++
++              dev->mode_config.max_width = 2048;
++              dev->mode_config.max_height = 2048;
++
++              /* set memory base */
++              /* MRST and PSB should use BAR 2*/
++              dev->mode_config.fb_base =
++                  pci_resource_start(dev->pdev, 2);
++
++              if (IS_MRST(dev))
++                      num_pipe = 1;
++              else
++                      num_pipe = 2;
++
++
++              for (i = 0; i < num_pipe; i++)
++                      psb_intel_crtc_init(dev, i, mode_dev);
++
++              psb_setup_outputs(dev);
++
++              /* setup fbs */
++              /* drm_initial_config(dev); */
++      }
++
++      void psb_modeset_cleanup(struct drm_device *dev)
++      {
++              drm_mode_config_cleanup(dev);
++      }
+diff --git a/drivers/gpu/drm/psb/psb_fb.h b/drivers/gpu/drm/psb/psb_fb.h
+new file mode 100644
+index 0000000..aa0b23c
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_fb.h
+@@ -0,0 +1,47 @@
++/*
++ * Copyright (c) 2008, Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
++ * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
++ * SOFTWARE.
++ *
++ * Authors:
++ *      Eric Anholt <eric@anholt.net>
++ *
++ **/
++
++#ifndef _PSB_FB_H_
++#define _PSB_FB_H_
++
++struct psb_framebuffer {
++      struct drm_framebuffer base;
++      struct address_space *addr_space;
++      struct ttm_buffer_object *bo;
++      struct ttm_bo_kmap_obj kmap;
++      uint64_t offset;
++};
++
++#define to_psb_fb(x) container_of(x, struct psb_framebuffer, base)
++
++
++extern int psb_intel_connector_clones(struct drm_device *dev, int type_mask);
++
++extern int psb_2d_submit(struct drm_psb_private *, uint32_t *, uint32_t);
++
++#endif
++
+diff --git a/drivers/gpu/drm/psb/psb_fence.c b/drivers/gpu/drm/psb/psb_fence.c
+new file mode 100644
+index 0000000..b8c64b0
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_fence.c
+@@ -0,0 +1,359 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "psb_msvdx.h"
++#include "lnc_topaz.h"
++
++static void psb_print_ta_fence_status(struct ttm_fence_device *fdev)
++{
++      struct drm_psb_private *dev_priv =
++              container_of(fdev, struct drm_psb_private, fdev);
++      struct psb_scheduler_seq *seq = dev_priv->scheduler.seq;
++      int i;
++
++      for (i=0; i < _PSB_ENGINE_TA_FENCE_TYPES; ++i) {
++              DRM_INFO("Type 0x%02x, sequence %lu, reported %d\n",
++                       (1 << i),
++                       (unsigned long) seq->sequence,
++                       seq->reported);
++              seq++;
++      }
++}
++
++static void psb_poll_ta(struct ttm_fence_device *fdev,
++                      uint32_t waiting_types)
++{
++      struct drm_psb_private *dev_priv =
++          container_of(fdev, struct drm_psb_private, fdev);
++      uint32_t cur_flag = 1;
++      uint32_t flags = 0;
++      uint32_t sequence = 0;
++      uint32_t remaining = 0xFFFFFFFF;
++      uint32_t diff;
++
++      struct psb_scheduler *scheduler;
++      struct psb_scheduler_seq *seq;
++      struct ttm_fence_class_manager *fc =
++          &fdev->fence_class[PSB_ENGINE_TA];
++
++      scheduler = &dev_priv->scheduler;
++      seq = scheduler->seq;
++
++      while (likely(waiting_types & remaining)) {
++              if (!(waiting_types & cur_flag))
++                      goto skip;
++              if (seq->reported)
++                      goto skip;
++              if (flags == 0)
++                      sequence = seq->sequence;
++              else if (sequence != seq->sequence) {
++                      ttm_fence_handler(fdev, PSB_ENGINE_TA,
++                                        sequence, flags, 0);
++                      sequence = seq->sequence;
++                      flags = 0;
++              }
++              flags |= cur_flag;
++
++              /*
++               * Sequence may not have ended up on the ring yet.
++               * In that case, report it but don't mark it as
++               * reported. A subsequent poll will report it again.
++               */
++
++              diff = (fc->latest_queued_sequence - sequence) &
++                  fc->sequence_mask;
++              if (diff < fc->wrap_diff)
++                      seq->reported = 1;
++
++skip:
++              cur_flag <<= 1;
++              remaining <<= 1;
++              seq++;
++      }
++
++      if (flags)
++              ttm_fence_handler(fdev, PSB_ENGINE_TA, sequence, flags, 0);
++
++}
++
++static void psb_poll_other(struct ttm_fence_device *fdev,
++                         uint32_t fence_class, uint32_t waiting_types)
++{
++      struct drm_psb_private *dev_priv =
++          container_of(fdev, struct drm_psb_private, fdev);
++      struct ttm_fence_class_manager *fc =
++          &fdev->fence_class[fence_class];
++      uint32_t sequence;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      if (unlikely(!dev_priv))
++              return;
++
++      if (waiting_types) {
++                switch (fence_class) {
++                case PSB_ENGINE_VIDEO:
++                        sequence = msvdx_priv->msvdx_current_sequence;
++                        break;
++                case LNC_ENGINE_ENCODE:
++                        sequence = *((uint32_t *)topaz_priv->topaz_sync_addr);
++                        break;
++                default:
++                        sequence = dev_priv->comm[fence_class << 4];
++                        break;
++                }
++
++              ttm_fence_handler(fdev, fence_class, sequence,
++                                _PSB_FENCE_TYPE_EXE, 0);
++
++              switch (fence_class) {
++              case PSB_ENGINE_2D:
++                      if (dev_priv->fence0_irq_on && !fc->waiting_types) {
++                              psb_2D_irq_off(dev_priv);
++                              dev_priv->fence0_irq_on = 0;
++                      } else if (!dev_priv->fence0_irq_on
++                                 && fc->waiting_types) {
++                              psb_2D_irq_on(dev_priv);
++                              dev_priv->fence0_irq_on = 1;
++                      }
++                      break;
++#if 0
++                      /*
++                       * FIXME: MSVDX irq switching
++                       */
++
++              case PSB_ENGINE_VIDEO:
++                      if (dev_priv->fence2_irq_on && !fc->waiting_types) {
++                              psb_msvdx_irq_off(dev_priv);
++                              dev_priv->fence2_irq_on = 0;
++                      } else if (!dev_priv->fence2_irq_on
++                                 && fc->pending_exe_flush) {
++                              psb_msvdx_irq_on(dev_priv);
++                              dev_priv->fence2_irq_on = 1;
++                      }
++                      break;
++#endif
++              default:
++                      return;
++              }
++      }
++}
++
++static void psb_fence_poll(struct ttm_fence_device *fdev,
++                         uint32_t fence_class, uint32_t waiting_types)
++{
++      if (unlikely((PSB_D_PM & drm_psb_debug) && (fence_class == 0)))
++              PSB_DEBUG_PM("psb_fence_poll: %d\n", fence_class);
++      switch (fence_class) {
++      case PSB_ENGINE_TA:
++              psb_poll_ta(fdev, waiting_types);
++              break;
++      default:
++              psb_poll_other(fdev, fence_class, waiting_types);
++              break;
++      }
++}
++
++void psb_fence_error(struct drm_device *dev,
++                   uint32_t fence_class,
++                   uint32_t sequence, uint32_t type, int error)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct ttm_fence_device *fdev = &dev_priv->fdev;
++      unsigned long irq_flags;
++      struct ttm_fence_class_manager *fc =
++          &fdev->fence_class[fence_class];
++
++      BUG_ON(fence_class >= PSB_NUM_ENGINES);
++      write_lock_irqsave(&fc->lock, irq_flags);
++      ttm_fence_handler(fdev, fence_class, sequence, type, error);
++      write_unlock_irqrestore(&fc->lock, irq_flags);
++}
++
++int psb_fence_emit_sequence(struct ttm_fence_device *fdev,
++                          uint32_t fence_class,
++                          uint32_t flags, uint32_t *sequence,
++                          unsigned long *timeout_jiffies)
++{
++      struct drm_psb_private *dev_priv =
++          container_of(fdev, struct drm_psb_private, fdev);
++      uint32_t seq = 0;
++      int ret;
++
++      if (!dev_priv)
++              return -EINVAL;
++
++      if (fence_class >= PSB_NUM_ENGINES)
++              return -EINVAL;
++
++      switch (fence_class) {
++      case PSB_ENGINE_2D:
++              spin_lock(&dev_priv->sequence_lock);
++              seq = ++dev_priv->sequence[fence_class];
++              spin_unlock(&dev_priv->sequence_lock);
++              ret = psb_blit_sequence(dev_priv, seq);
++              if (ret)
++                      return ret;
++              break;
++      case PSB_ENGINE_VIDEO:
++              spin_lock(&dev_priv->sequence_lock);
++              seq = dev_priv->sequence[fence_class]++;
++              spin_unlock(&dev_priv->sequence_lock);
++              break;
++      case LNC_ENGINE_ENCODE:
++              spin_lock(&dev_priv->sequence_lock);
++              seq = dev_priv->sequence[fence_class]++;
++              spin_unlock(&dev_priv->sequence_lock);
++              break;
++      default:
++              spin_lock(&dev_priv->sequence_lock);
++              seq = dev_priv->sequence[fence_class];
++              spin_unlock(&dev_priv->sequence_lock);
++      }
++
++      *sequence = seq;
++
++      if (fence_class == PSB_ENGINE_TA)
++              *timeout_jiffies = jiffies + DRM_HZ / 2;
++      else
++              *timeout_jiffies = jiffies + DRM_HZ * 3;
++
++      return 0;
++}
++
++uint32_t psb_fence_advance_sequence(struct drm_device *dev,
++                                  uint32_t fence_class)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      uint32_t sequence;
++
++      spin_lock(&dev_priv->sequence_lock);
++      sequence = ++dev_priv->sequence[fence_class];
++      spin_unlock(&dev_priv->sequence_lock);
++
++      return sequence;
++}
++
++static void psb_fence_lockup(struct ttm_fence_object *fence,
++                           uint32_t fence_types)
++{
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++
++      if (fence->fence_class == PSB_ENGINE_TA) {
++
++              /*
++               * The 3D engine has its own lockup detection.
++               * Just extend the fence expiry time.
++               */
++
++              DRM_INFO("Extending 3D fence timeout.\n");
++              write_lock(&fc->lock);
++
++              DRM_INFO("Sequence %lu, types 0x%08x signaled 0x%08x\n",
++                       (unsigned long) fence->sequence, fence_types,
++                       fence->info.signaled_types);
++
++              if (time_after_eq(jiffies, fence->timeout_jiffies))
++                      fence->timeout_jiffies = jiffies + DRM_HZ / 2;
++
++              psb_print_ta_fence_status(fence->fdev);
++              write_unlock(&fc->lock);
++      } else if (fence->fence_class == LNC_ENGINE_ENCODE) {
++              DRM_ERROR
++                  ("TOPAZ timeout (probable lockup) detected on engine %u "
++                   "fence type 0x%08x\n",
++                   (unsigned int) fence->fence_class,
++                   (unsigned int) fence_types);
++
++              write_lock(&fc->lock);
++              lnc_topaz_handle_timeout(fence->fdev);
++              ttm_fence_handler(fence->fdev, fence->fence_class,
++                                fence->sequence, fence_types, -EBUSY);
++              write_unlock(&fc->lock);
++      } else {
++              DRM_ERROR
++                  ("GPU timeout (probable lockup) detected on engine %u "
++                   "fence type 0x%08x\n",
++                   (unsigned int) fence->fence_class,
++                   (unsigned int) fence_types);
++              write_lock(&fc->lock);
++              ttm_fence_handler(fence->fdev, fence->fence_class,
++                                fence->sequence, fence_types, -EBUSY);
++              write_unlock(&fc->lock);
++      }
++}
++
++void psb_fence_handler(struct drm_device *dev, uint32_t fence_class)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct ttm_fence_device *fdev = &dev_priv->fdev;
++      struct ttm_fence_class_manager *fc =
++          &fdev->fence_class[fence_class];
++      unsigned long irq_flags;
++
++#ifdef FIX_TG_16
++      if (fence_class == PSB_ENGINE_2D) {
++
++              if ((atomic_read(&dev_priv->ta_wait_2d_irq) == 1) &&
++                  (PSB_RSGX32(PSB_CR_2D_SOCIF) == _PSB_C2_SOCIF_EMPTY) &&
++                  ((PSB_RSGX32(PSB_CR_2D_BLIT_STATUS) &
++                    _PSB_C2B_STATUS_BUSY) == 0))
++                      psb_resume_ta_2d_idle(dev_priv);
++      }
++#endif
++      write_lock_irqsave(&fc->lock, irq_flags);
++      psb_fence_poll(fdev, fence_class, fc->waiting_types);
++      write_unlock_irqrestore(&fc->lock, irq_flags);
++}
++
++
++static struct ttm_fence_driver psb_ttm_fence_driver = {
++      .has_irq = NULL,
++      .emit = psb_fence_emit_sequence,
++      .flush = NULL,
++      .poll = psb_fence_poll,
++      .needed_flush = NULL,
++      .wait = NULL,
++      .signaled = NULL,
++      .lockup = psb_fence_lockup,
++};
++
++int psb_ttm_fence_device_init(struct ttm_fence_device *fdev)
++{
++      struct drm_psb_private *dev_priv =
++              container_of(fdev, struct drm_psb_private, fdev);
++      struct ttm_fence_class_init fci = {.wrap_diff = (1 << 30),
++              .flush_diff = (1 << 29),
++              .sequence_mask = 0xFFFFFFFF
++      };
++
++      return ttm_fence_device_init(PSB_NUM_ENGINES,
++                                   dev_priv->mem_global_ref.object,
++                                   fdev, &fci, 1,
++                                   &psb_ttm_fence_driver);
++}
+diff --git a/drivers/gpu/drm/psb/psb_gtt.c b/drivers/gpu/drm/psb/psb_gtt.c
+new file mode 100644
+index 0000000..7cb5a3d
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_gtt.c
+@@ -0,0 +1,278 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics.com>
++ */
++#include <drm/drmP.h>
++#include "psb_drv.h"
++
++static inline uint32_t psb_gtt_mask_pte(uint32_t pfn, int type)
++{
++      uint32_t mask = PSB_PTE_VALID;
++
++      if (type & PSB_MMU_CACHED_MEMORY)
++              mask |= PSB_PTE_CACHED;
++      if (type & PSB_MMU_RO_MEMORY)
++              mask |= PSB_PTE_RO;
++      if (type & PSB_MMU_WO_MEMORY)
++              mask |= PSB_PTE_WO;
++
++      return (pfn << PAGE_SHIFT) | mask;
++}
++
++struct psb_gtt *psb_gtt_alloc(struct drm_device *dev)
++{
++      struct psb_gtt *tmp = kzalloc(sizeof(*tmp), GFP_KERNEL);
++
++      if (!tmp)
++              return NULL;
++
++      init_rwsem(&tmp->sem);
++      tmp->dev = dev;
++
++      return tmp;
++}
++
++void psb_gtt_takedown(struct psb_gtt *pg, int free)
++{
++      struct drm_psb_private *dev_priv = pg->dev->dev_private;
++
++      if (!pg)
++              return;
++
++      if (pg->gtt_map) {
++              iounmap(pg->gtt_map);
++              pg->gtt_map = NULL;
++      }
++      if (pg->initialized) {
++              pci_write_config_word(pg->dev->pdev, PSB_GMCH_CTRL,
++                                    pg->gmch_ctrl);
++              PSB_WVDC32(pg->pge_ctl, PSB_PGETBL_CTL);
++              (void) PSB_RVDC32(PSB_PGETBL_CTL);
++      }
++      if (free)
++              kfree(pg);
++}
++
++int psb_gtt_init(struct psb_gtt *pg, int resume)
++{
++      struct drm_device *dev = pg->dev;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      unsigned gtt_pages;
++      unsigned long stolen_size, vram_stolen_size, ci_stolen_size;
++      unsigned long rar_stolen_size;
++      unsigned i, num_pages;
++      unsigned pfn_base;
++      uint32_t vram_pages;
++
++      int ret = 0;
++      uint32_t pte;
++
++      pci_read_config_word(dev->pdev, PSB_GMCH_CTRL, &pg->gmch_ctrl);
++      pci_write_config_word(dev->pdev, PSB_GMCH_CTRL,
++                            pg->gmch_ctrl | _PSB_GMCH_ENABLED);
++
++      pg->pge_ctl = PSB_RVDC32(PSB_PGETBL_CTL);
++      PSB_WVDC32(pg->pge_ctl | _PSB_PGETBL_ENABLED, PSB_PGETBL_CTL);
++      (void) PSB_RVDC32(PSB_PGETBL_CTL);
++
++      pg->initialized = 1;
++
++      pg->gtt_phys_start = pg->pge_ctl & PAGE_MASK;
++
++      pg->gatt_start = pci_resource_start(dev->pdev, PSB_GATT_RESOURCE);
++      pg->gtt_start = pci_resource_start(dev->pdev, PSB_GTT_RESOURCE);
++      gtt_pages =
++          pci_resource_len(dev->pdev, PSB_GTT_RESOURCE) >> PAGE_SHIFT;
++      pg->gatt_pages = pci_resource_len(dev->pdev, PSB_GATT_RESOURCE)
++          >> PAGE_SHIFT;
++
++      pci_read_config_dword(dev->pdev, PSB_BSM, &pg->stolen_base);
++      vram_stolen_size = pg->gtt_phys_start - pg->stolen_base - PAGE_SIZE;
++
++      /* CI is not included in the stolen size since the TOPAZ MMU bug */
++      ci_stolen_size = dev_priv->ci_region_size;
++      /* add CI & RAR share buffer space to stolen_size */
++      /* stolen_size = vram_stolen_size + ci_stolen_size; */
++      stolen_size = vram_stolen_size;
++
++      rar_stolen_size = dev_priv->rar_region_size;
++      stolen_size += rar_stolen_size;
++
++      PSB_DEBUG_INIT("GTT phys start: 0x%08x.\n", pg->gtt_phys_start);
++      PSB_DEBUG_INIT("GTT start: 0x%08x.\n", pg->gtt_start);
++      PSB_DEBUG_INIT("GATT start: 0x%08x.\n", pg->gatt_start);
++      PSB_DEBUG_INIT("GTT pages: %u\n", gtt_pages);
++      PSB_DEBUG_INIT("Stolen size: %lu kiB\n", stolen_size / 1024);
++
++      if (resume && (gtt_pages != pg->gtt_pages) &&
++          (stolen_size != pg->stolen_size)) {
++              DRM_ERROR("GTT resume error.\n");
++              ret = -EINVAL;
++              goto out_err;
++      }
++
++      pg->gtt_pages = gtt_pages;
++      pg->stolen_size = stolen_size;
++      pg->vram_stolen_size = vram_stolen_size;
++      pg->ci_stolen_size = ci_stolen_size;
++      pg->rar_stolen_size = rar_stolen_size;
++      pg->gtt_map =
++          ioremap_nocache(pg->gtt_phys_start, gtt_pages << PAGE_SHIFT);
++      if (!pg->gtt_map) {
++              DRM_ERROR("Failure to map gtt.\n");
++              ret = -ENOMEM;
++              goto out_err;
++      }
++
++      /*
++       * insert vram stolen pages.
++       */
++
++      pfn_base = pg->stolen_base >> PAGE_SHIFT;
++      vram_pages = num_pages = vram_stolen_size >> PAGE_SHIFT;
++      PSB_DEBUG_INIT("Set up %d stolen pages starting at 0x%08x\n",
++                     num_pages, pfn_base);
++      for (i = 0; i < num_pages; ++i) {
++              pte = psb_gtt_mask_pte(pfn_base + i, 0);
++              iowrite32(pte, pg->gtt_map + i);
++      }
++#if 0
++      /*
++       * insert CI stolen pages
++       */
++
++      pfn_base = dev_priv->ci_region_start >> PAGE_SHIFT;
++      num_pages = ci_stolen_size >> PAGE_SHIFT;
++      PSB_DEBUG_INIT("Set up %d stolen pages starting at 0x%08x\n",
++                     num_pages, pfn_base);
++      for (; i < num_pages; ++i) {
++              pte = psb_gtt_mask_pte(pfn_base + i, 0);
++              iowrite32(pte, pg->gtt_map + i);
++      }
++#endif
++
++      /*
++       * insert RAR stolen pages
++       */
++      if (rar_stolen_size != 0) {
++              pfn_base = dev_priv->rar_region_start >> PAGE_SHIFT;
++              num_pages = rar_stolen_size >> PAGE_SHIFT;
++              PSB_DEBUG_INIT("Set up %d stolen pages starting at 0x%08x\n",
++                             num_pages, pfn_base);
++              for (; i < num_pages + vram_pages ; ++i) {
++                      pte = psb_gtt_mask_pte(pfn_base + i - vram_pages, 0);
++                      iowrite32(pte, pg->gtt_map + i);
++              }
++      }
++      /*
++       * Init rest of gtt.
++       */
++
++      pfn_base = page_to_pfn(dev_priv->scratch_page);
++      pte = psb_gtt_mask_pte(pfn_base, 0);
++      PSB_DEBUG_INIT("Initializing the rest of a total "
++                     "of %d gtt pages.\n", pg->gatt_pages);
++
++      for (; i < pg->gatt_pages; ++i)
++              iowrite32(pte, pg->gtt_map + i);
++      (void) ioread32(pg->gtt_map + i - 1);
++
++      return 0;
++
++out_err:
++      psb_gtt_takedown(pg, 0);
++      return ret;
++}
++
++int psb_gtt_insert_pages(struct psb_gtt *pg, struct page **pages,
++                       unsigned offset_pages, unsigned num_pages,
++                       unsigned desired_tile_stride,
++                       unsigned hw_tile_stride, int type)
++{
++      unsigned rows = 1;
++      unsigned add;
++      unsigned row_add;
++      unsigned i;
++      unsigned j;
++      uint32_t *cur_page = NULL;
++      uint32_t pte;
++
++      if (hw_tile_stride)
++              rows = num_pages / desired_tile_stride;
++      else
++              desired_tile_stride = num_pages;
++
++      add = desired_tile_stride;
++      row_add = hw_tile_stride;
++
++      down_read(&pg->sem);
++      for (i = 0; i < rows; ++i) {
++              cur_page = pg->gtt_map + offset_pages;
++              for (j = 0; j < desired_tile_stride; ++j) {
++                      pte =
++                          psb_gtt_mask_pte(page_to_pfn(*pages++), type);
++                      iowrite32(pte, cur_page++);
++              }
++              offset_pages += add;
++      }
++      (void) ioread32(cur_page - 1);
++      up_read(&pg->sem);
++
++      return 0;
++}
++
++int psb_gtt_remove_pages(struct psb_gtt *pg, unsigned offset_pages,
++                       unsigned num_pages, unsigned desired_tile_stride,
++                       unsigned hw_tile_stride)
++{
++      struct drm_psb_private *dev_priv = pg->dev->dev_private;
++      unsigned rows = 1;
++      unsigned add;
++      unsigned row_add;
++      unsigned i;
++      unsigned j;
++      uint32_t *cur_page = NULL;
++      unsigned pfn_base = page_to_pfn(dev_priv->scratch_page);
++      uint32_t pte = psb_gtt_mask_pte(pfn_base, 0);
++
++      if (hw_tile_stride)
++              rows = num_pages / desired_tile_stride;
++      else
++              desired_tile_stride = num_pages;
++
++      add = desired_tile_stride;
++      row_add = hw_tile_stride;
++
++      down_read(&pg->sem);
++      for (i = 0; i < rows; ++i) {
++              cur_page = pg->gtt_map + offset_pages;
++              for (j = 0; j < desired_tile_stride; ++j)
++                      iowrite32(pte, cur_page++);
++
++              offset_pages += add;
++      }
++      (void) ioread32(cur_page - 1);
++      up_read(&pg->sem);
++
++      return 0;
++}
+diff --git a/drivers/gpu/drm/psb/psb_hotplug.c b/drivers/gpu/drm/psb/psb_hotplug.c
+new file mode 100644
+index 0000000..38e1f35
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_hotplug.c
+@@ -0,0 +1,427 @@
++/*
++ * Copyright Â© 2009 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
++ * IN THE SOFTWARE.
++ *
++ * Authors:
++ *    James C. Gualario <james.c.gualario@intel.com>
++ *
++ */
++#include "psb_umevents.h"
++#include "psb_hotplug.h"
++/**
++ * inform the kernel of the work to be performed and related function.
++ *
++ */
++DECLARE_WORK(hotplug_dev_create_work, &psb_hotplug_dev_create_wq);
++DECLARE_WORK(hotplug_dev_remove_work, &psb_hotplug_dev_remove_wq);
++DECLARE_WORK(hotplug_dev_change_work, &psb_hotplug_dev_change_wq);
++/**
++ * psb_hotplug_notify_change_um - notify user mode of hotplug changes
++ *
++ * @name: name of event to notify user mode of change to
++ * @state: hotplug state to search for event object in
++ *
++ */
++int psb_hotplug_notify_change_um(const char *name,
++                           struct hotplug_state *state)
++{
++      strcpy(&(state->hotplug_change_wq_data.dev_name_arry
++               [state->hotplug_change_wq_data.dev_name_write][0]), name);
++      state->hotplug_change_wq_data.dev_name_arry_rw_status
++              [state->hotplug_change_wq_data.dev_name_write] =
++              DRM_HOTPLUG_READY_TO_READ;
++      if (state->hotplug_change_wq_data.dev_name_read_write_wrap_ack == 1)
++              state->hotplug_change_wq_data.dev_name_read_write_wrap_ack = 0;
++      state->hotplug_change_wq_data.dev_name_write++;
++      if (state->hotplug_change_wq_data.dev_name_write ==
++         state->hotplug_change_wq_data.dev_name_read) {
++              state->hotplug_change_wq_data.dev_name_write--;
++              return IRQ_NONE;
++      }
++      if (state->hotplug_change_wq_data.dev_name_write >
++         DRM_HOTPLUG_RING_DEPTH_MAX) {
++              state->hotplug_change_wq_data.dev_name_write = 0;
++              state->hotplug_change_wq_data.dev_name_write_wrap = 1;
++      }
++      state->hotplug_change_wq_data.hotplug_dev_list = state->list;
++      queue_work(state->hotplug_wq, &(state->hotplug_change_wq_data.work));
++      return IRQ_HANDLED;
++}
++/**
++ *
++ * psb_hotplug_create_and_notify_um - create and notify user mode of new dev
++ *
++ * @name: name to give for new event / device
++ * @state: hotplug state to track new event /device in
++ *
++ */
++int psb_hotplug_create_and_notify_um(const char *name,
++                               struct hotplug_state *state)
++{
++      strcpy(&(state->hotplug_create_wq_data.dev_name_arry
++               [state->hotplug_create_wq_data.dev_name_write][0]), name);
++      state->hotplug_create_wq_data.dev_name_arry_rw_status
++              [state->hotplug_create_wq_data.dev_name_write] =
++              DRM_HOTPLUG_READY_TO_READ;
++      if (state->hotplug_create_wq_data.dev_name_read_write_wrap_ack == 1)
++              state->hotplug_create_wq_data.dev_name_read_write_wrap_ack = 0;
++      state->hotplug_create_wq_data.dev_name_write++;
++      if (state->hotplug_create_wq_data.dev_name_write ==
++         state->hotplug_create_wq_data.dev_name_read) {
++              state->hotplug_create_wq_data.dev_name_write--;
++              return IRQ_NONE;
++      }
++      if (state->hotplug_create_wq_data.dev_name_write >
++         DRM_HOTPLUG_RING_DEPTH_MAX) {
++              state->hotplug_create_wq_data.dev_name_write = 0;
++              state->hotplug_create_wq_data.dev_name_write_wrap = 1;
++      }
++      state->hotplug_create_wq_data.hotplug_dev_list = state->list;
++      queue_work(state->hotplug_wq, &(state->hotplug_create_wq_data.work));
++      return IRQ_HANDLED;
++}
++EXPORT_SYMBOL(psb_hotplug_create_and_notify_um);
++/**
++ * psb_hotplug_remove_and_notify_um - remove device and notify user mode
++ *
++ * @name: name of event / device to remove
++ * @state: hotplug state to remove event / device from
++ *
++ */
++int psb_hotplug_remove_and_notify_um(const char *name,
++                               struct hotplug_state *state)
++{
++      strcpy(&(state->hotplug_remove_wq_data.dev_name_arry
++               [state->hotplug_remove_wq_data.dev_name_write][0]), name);
++      state->hotplug_remove_wq_data.dev_name_arry_rw_status
++              [state->hotplug_remove_wq_data.dev_name_write] =
++              DRM_HOTPLUG_READY_TO_READ;
++      if (state->hotplug_remove_wq_data.dev_name_read_write_wrap_ack == 1)
++              state->hotplug_remove_wq_data.dev_name_read_write_wrap_ack = 0;
++      state->hotplug_remove_wq_data.dev_name_write++;
++      if (state->hotplug_remove_wq_data.dev_name_write ==
++         state->hotplug_remove_wq_data.dev_name_read) {
++              state->hotplug_remove_wq_data.dev_name_write--;
++              return IRQ_NONE;
++      }
++      if (state->hotplug_remove_wq_data.dev_name_write >
++         DRM_HOTPLUG_RING_DEPTH_MAX) {
++              state->hotplug_remove_wq_data.dev_name_write = 0;
++              state->hotplug_remove_wq_data.dev_name_write_wrap = 1;
++      }
++      state->hotplug_remove_wq_data.hotplug_dev_list = state->list;
++      queue_work(state->hotplug_wq, &(state->hotplug_remove_wq_data.work));
++      return IRQ_HANDLED;
++}
++EXPORT_SYMBOL(psb_hotplug_remove_and_notify_um);
++/**
++ * psb_hotplug_device_pool_create_and_init - make new hotplug device pool
++ *
++ * @parent_kobj: parent kobject to associate hotplug kset with
++ * @state: hotplug state to assocaite workqueues with
++ *
++ */
++struct umevent_list *psb_hotplug_device_pool_create_and_init(
++                                   struct kobject *parent_kobj,
++                                   struct hotplug_state *state)
++{
++      struct umevent_list *new_hotplug_dev_list = NULL;
++
++      new_hotplug_dev_list = psb_umevent_create_list();
++      if (new_hotplug_dev_list)
++              psb_umevent_init(parent_kobj, new_hotplug_dev_list,
++                               "psb_hotplug");
++
++      state->hotplug_wq = create_singlethread_workqueue("hotplug-wq");
++      if (!state->hotplug_wq)
++              return NULL;
++
++      INIT_WORK(&state->hotplug_create_wq_data.work,
++                psb_hotplug_dev_create_wq);
++      INIT_WORK(&state->hotplug_remove_wq_data.work,
++                psb_hotplug_dev_remove_wq);
++      INIT_WORK(&state->hotplug_change_wq_data.work,
++                psb_hotplug_dev_change_wq);
++
++      state->hotplug_create_wq_data.dev_name_read = 0;
++      state->hotplug_create_wq_data.dev_name_write = 0;
++      state->hotplug_create_wq_data.dev_name_write_wrap = 0;
++      state->hotplug_create_wq_data.dev_name_read_write_wrap_ack = 0;
++      memset(&(state->hotplug_create_wq_data.dev_name_arry_rw_status[0]),
++             0, sizeof(int)*DRM_HOTPLUG_RING_DEPTH);
++
++      state->hotplug_remove_wq_data.dev_name_read = 0;
++      state->hotplug_remove_wq_data.dev_name_write = 0;
++      state->hotplug_remove_wq_data.dev_name_write_wrap = 0;
++      state->hotplug_remove_wq_data.dev_name_read_write_wrap_ack = 0;
++      memset(&(state->hotplug_remove_wq_data.dev_name_arry_rw_status[0]),
++             0, sizeof(int)*DRM_HOTPLUG_RING_DEPTH);
++
++      state->hotplug_change_wq_data.dev_name_read = 0;
++      state->hotplug_change_wq_data.dev_name_write = 0;
++      state->hotplug_change_wq_data.dev_name_write_wrap = 0;
++      state->hotplug_change_wq_data.dev_name_read_write_wrap_ack = 0;
++      memset(&(state->hotplug_change_wq_data.dev_name_arry_rw_status[0]),
++             0, sizeof(int)*DRM_HOTPLUG_RING_DEPTH);
++
++      return new_hotplug_dev_list;
++}
++EXPORT_SYMBOL(psb_hotplug_device_pool_create_and_init);
++/**
++ *
++ * psb_hotplug_init - init hotplug subsystem
++ *
++ * @parent_kobj: parent kobject to associate hotplug state with
++ *
++ */
++struct hotplug_state *psb_hotplug_init(struct kobject *parent_kobj)
++{
++      struct hotplug_state *state;
++      state = kzalloc(sizeof(struct hotplug_state), GFP_KERNEL);
++      state->list = NULL;
++      state->list = psb_hotplug_device_pool_create_and_init(
++                                                    parent_kobj,
++                                                    state);
++      return state;
++}
++/**
++ * psb_hotplug_device_pool_destroy - destroy all hotplug related resources
++ *
++ * @state: hotplug state to destroy
++ *
++ */
++void psb_hotplug_device_pool_destroy(struct hotplug_state *state)
++{
++      flush_workqueue(state->hotplug_wq);
++      destroy_workqueue(state->hotplug_wq);
++      psb_umevent_cleanup(state->list);
++      kfree(state);
++}
++EXPORT_SYMBOL(psb_hotplug_device_pool_destroy);
++/**
++ * psb_hotplug_dev_create_wq - create workqueue implementation
++ *
++ * @work: work struct to use for kernel scheduling
++ *
++ */
++void psb_hotplug_dev_create_wq(struct work_struct *work)
++{
++      struct hotplug_disp_workqueue_data *wq_data;
++      struct umevent_obj *wq_working_hotplug_disp_obj;
++      wq_data = to_hotplug_disp_workqueue_data(work);
++      if (wq_data->dev_name_write_wrap == 1) {
++              wq_data->dev_name_read_write_wrap_ack = 1;
++              wq_data->dev_name_write_wrap = 0;
++              while (wq_data->dev_name_read != DRM_HOTPLUG_RING_DEPTH_MAX) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              wq_working_hotplug_disp_obj =
++                              psb_create_umevent_obj(
++                                      &wq_data->dev_name_arry
++                                      [wq_data->dev_name_read][0],
++                                      wq_data->hotplug_dev_list);
++                              wq_data->dev_name_arry_rw_status
++                                      [wq_data->dev_name_read] =
++                                      DRM_HOTPLUG_READ_COMPLETE;
++                              psb_umevent_notify
++                                      (wq_working_hotplug_disp_obj);
++                      }
++                      wq_data->dev_name_read++;
++              }
++              wq_data->dev_name_read = 0;
++              while (wq_data->dev_name_read < wq_data->dev_name_write-1) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              wq_working_hotplug_disp_obj =
++                              psb_create_umevent_obj(
++                                      &wq_data->dev_name_arry
++                                      [wq_data->dev_name_read][0],
++                                      wq_data->hotplug_dev_list);
++                              wq_data->dev_name_arry_rw_status
++                                      [wq_data->dev_name_read] =
++                                      DRM_HOTPLUG_READ_COMPLETE;
++                              psb_umevent_notify
++                                      (wq_working_hotplug_disp_obj);
++                      }
++                      wq_data->dev_name_read++;
++              }
++      } else {
++              while (wq_data->dev_name_read < wq_data->dev_name_write) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              wq_working_hotplug_disp_obj =
++                              psb_create_umevent_obj(
++                              &wq_data->dev_name_arry
++                                      [wq_data->dev_name_read][0],
++                                      wq_data->hotplug_dev_list);
++                              wq_data->dev_name_arry_rw_status
++                                      [wq_data->dev_name_read] =
++                                      DRM_HOTPLUG_READ_COMPLETE;
++                              psb_umevent_notify
++                                      (wq_working_hotplug_disp_obj);
++                      }
++                      wq_data->dev_name_read++;
++              }
++      }
++      if (wq_data->dev_name_read > DRM_HOTPLUG_RING_DEPTH_MAX)
++              wq_data->dev_name_read = 0;
++}
++EXPORT_SYMBOL(psb_hotplug_dev_create_wq);
++/**
++ * psb_hotplug_dev_remove_wq - remove workqueue implementation
++ *
++ * @work: work struct to use for kernel scheduling
++ *
++ */
++void psb_hotplug_dev_remove_wq(struct work_struct *work)
++{
++      struct hotplug_disp_workqueue_data *wq_data;
++      wq_data = to_hotplug_disp_workqueue_data(work);
++      if (wq_data->dev_name_write_wrap == 1) {
++              wq_data->dev_name_read_write_wrap_ack = 1;
++              wq_data->dev_name_write_wrap = 0;
++              while (wq_data->dev_name_read != DRM_HOTPLUG_RING_DEPTH_MAX) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              psb_umevent_remove_from_list(
++                              wq_data->hotplug_dev_list,
++                              &wq_data->dev_name_arry
++                              [wq_data->dev_name_read][0]);
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                              DRM_HOTPLUG_READ_COMPLETE;
++                      }
++                      wq_data->dev_name_read++;
++              }
++              wq_data->dev_name_read = 0;
++              while (wq_data->dev_name_read < wq_data->dev_name_write-1) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              psb_umevent_remove_from_list(
++                              wq_data->hotplug_dev_list,
++                              &wq_data->dev_name_arry
++                              [wq_data->dev_name_read][0]);
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                              DRM_HOTPLUG_READ_COMPLETE;
++                      }
++                      wq_data->dev_name_read++;
++              }
++      } else {
++              while (wq_data->dev_name_read < wq_data->dev_name_write) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              psb_umevent_remove_from_list(
++                              wq_data->hotplug_dev_list,
++                              &wq_data->dev_name_arry
++                              [wq_data->dev_name_read][0]);
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                              DRM_HOTPLUG_READ_COMPLETE;
++                      }
++                      wq_data->dev_name_read++;
++              }
++      }
++      if (wq_data->dev_name_read > DRM_HOTPLUG_RING_DEPTH_MAX)
++              wq_data->dev_name_read = 0;
++}
++EXPORT_SYMBOL(psb_hotplug_dev_remove_wq);
++/**
++ * psb_hotplug_dev_change_wq - change workqueue implementation
++ *
++ * @work: work struct to use for kernel scheduling
++ *
++ */
++void psb_hotplug_dev_change_wq(struct work_struct *work)
++{
++      struct hotplug_disp_workqueue_data *wq_data;
++      struct umevent_obj *wq_working_hotplug_disp_obj;
++      wq_data = to_hotplug_disp_workqueue_data(work);
++      if (wq_data->dev_name_write_wrap == 1) {
++              wq_data->dev_name_read_write_wrap_ack = 1;
++              wq_data->dev_name_write_wrap = 0;
++              while (wq_data->dev_name_read != DRM_HOTPLUG_RING_DEPTH_MAX) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                              DRM_HOTPLUG_READ_COMPLETE;
++
++                              wq_working_hotplug_disp_obj =
++                                      psb_umevent_find_obj(
++                                           &wq_data->dev_name_arry
++                                           [wq_data->dev_name_read][0],
++                                            wq_data->hotplug_dev_list);
++                              psb_umevent_notify_change_gfxsock
++                                      (wq_working_hotplug_disp_obj);
++                      }
++                      wq_data->dev_name_read++;
++              }
++              wq_data->dev_name_read = 0;
++              while (wq_data->dev_name_read < wq_data->dev_name_write-1) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                              DRM_HOTPLUG_READ_COMPLETE;
++
++                              wq_working_hotplug_disp_obj =
++                                      psb_umevent_find_obj(
++                                           &wq_data->dev_name_arry
++                                           [wq_data->dev_name_read][0],
++                                            wq_data->hotplug_dev_list);
++                              psb_umevent_notify_change_gfxsock
++                                      (wq_working_hotplug_disp_obj);
++                      }
++                      wq_data->dev_name_read++;
++              }
++      } else {
++              while (wq_data->dev_name_read < wq_data->dev_name_write) {
++                      if (wq_data->dev_name_arry_rw_status
++                         [wq_data->dev_name_read] ==
++                         DRM_HOTPLUG_READY_TO_READ) {
++                              wq_data->dev_name_arry_rw_status
++                              [wq_data->dev_name_read] =
++                                      DRM_HOTPLUG_READ_COMPLETE;
++
++                              wq_working_hotplug_disp_obj =
++                                      psb_umevent_find_obj(
++                                           &wq_data->dev_name_arry
++                                           [wq_data->dev_name_read][0],
++                                            wq_data->hotplug_dev_list);
++                              psb_umevent_notify_change_gfxsock
++                                      (wq_working_hotplug_disp_obj);
++                      }
++                      wq_data->dev_name_read++;
++              }
++      }
++      if (wq_data->dev_name_read > DRM_HOTPLUG_RING_DEPTH_MAX)
++              wq_data->dev_name_read = 0;
++}
++EXPORT_SYMBOL(psb_hotplug_dev_change_wq);
+diff --git a/drivers/gpu/drm/psb/psb_hotplug.h b/drivers/gpu/drm/psb/psb_hotplug.h
+new file mode 100644
+index 0000000..8a63efc
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_hotplug.h
+@@ -0,0 +1,96 @@
++/*
++ * Copyright Â© 2009 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
++ * IN THE SOFTWARE.
++ *
++ * Authors:
++ *    James C. Gualario <james.c.gualario@intel.com>
++ *
++ */
++#ifndef _PSB_HOTPLUG_H_
++#define _PSB_HOTPLUG_H_
++/**
++ * required includes
++ *
++ */
++#include "psb_umevents.h"
++/**
++ * hotplug specific defines
++ *
++ */
++#define DRM_HOTPLUG_RING_DEPTH 256
++#define DRM_HOTPLUG_RING_DEPTH_MAX (DRM_HOTPLUG_RING_DEPTH-1)
++#define DRM_HOTPLUG_READY_TO_READ 1
++#define DRM_HOTPLUG_READ_COMPLETE 2
++/**
++ * hotplug workqueue data struct.
++ */
++struct hotplug_disp_workqueue_data {
++      struct work_struct work;
++      const char *dev_name;
++      int dev_name_write;
++      int dev_name_read;
++      int dev_name_write_wrap;
++      int dev_name_read_write_wrap_ack;
++      char dev_name_arry[DRM_HOTPLUG_RING_DEPTH][24];
++      int dev_name_arry_rw_status[DRM_HOTPLUG_RING_DEPTH];
++      struct umevent_list *hotplug_dev_list;
++};
++/**
++ * hotplug state structure
++ *
++ */
++struct hotplug_state {
++      struct workqueue_struct *hotplug_wq;
++      struct hotplug_disp_workqueue_data hotplug_remove_wq_data;
++      struct hotplug_disp_workqueue_data hotplug_create_wq_data;
++      struct hotplug_disp_workqueue_data hotplug_change_wq_data;
++      struct umevent_list *list;
++};
++/**
++ * main interface function prototytpes for hotplug support.
++ *
++ */
++struct hotplug_state *psb_hotplug_init(struct kobject *parent_kobj);
++extern int psb_hotplug_notify_change_um(const char *name,
++                                  struct hotplug_state *state);
++extern int psb_hotplug_create_and_notify_um(const char *name,
++                                      struct hotplug_state *state);
++extern int psb_hotplug_remove_and_notify_um(const char *name,
++                                      struct hotplug_state *state);
++extern struct umevent_list *psb_hotplug_device_pool_create_and_init(
++                                          struct kobject *parent_kobj,
++                                          struct hotplug_state *state);
++extern void psb_hotplug_device_pool_destroy(struct hotplug_state *state);
++/**
++ * to go back and forth between work strauct and workqueue data
++ *
++ */
++#define to_hotplug_disp_workqueue_data(x) \
++      container_of(x, struct hotplug_disp_workqueue_data, work)
++
++/**
++ * function prototypes for workqueue implementation
++ *
++ */
++extern void psb_hotplug_dev_create_wq(struct work_struct *work);
++extern void psb_hotplug_dev_remove_wq(struct work_struct *work);
++extern void psb_hotplug_dev_change_wq(struct work_struct *work);
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_intel_bios.c b/drivers/gpu/drm/psb/psb_intel_bios.c
+new file mode 100644
+index 0000000..02e4e27
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_bios.c
+@@ -0,0 +1,309 @@
++/*
++ * Copyright Â© 2006 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
++ * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
++ * SOFTWARE.
++ *
++ * Authors:
++ *    Eric Anholt <eric@anholt.net>
++ *
++ */
++#include "drmP.h"
++#include "drm.h"
++#include "psb_drm.h"
++#include "psb_drv.h"
++#include "psb_intel_drv.h"
++#include "psb_intel_reg.h"
++#include "psb_intel_bios.h"
++
++
++static void * find_section(struct bdb_header *bdb, int section_id)
++{
++      u8 *base = (u8 *)bdb;
++      int index = 0;
++      u16 total, current_size;
++      u8 current_id;
++
++      /* skip to first section */
++      index += bdb->header_size;
++      total = bdb->bdb_size;
++
++      /* walk the sections looking for section_id */
++      while (index < total) {
++              current_id = *(base + index);
++              index++;
++              current_size = *((u16 *)(base + index));
++              index += 2;
++              if (current_id == section_id)
++                      return base + index;
++              index += current_size;
++      }
++
++      return NULL;
++}
++
++static void fill_detail_timing_data(struct drm_display_mode *panel_fixed_mode,
++                      struct lvds_dvo_timing *dvo_timing)
++{
++      panel_fixed_mode->hdisplay = (dvo_timing->hactive_hi << 8) |
++              dvo_timing->hactive_lo;
++      panel_fixed_mode->hsync_start = panel_fixed_mode->hdisplay +
++              ((dvo_timing->hsync_off_hi << 8) | dvo_timing->hsync_off_lo);
++      panel_fixed_mode->hsync_end = panel_fixed_mode->hsync_start +
++              dvo_timing->hsync_pulse_width;
++      panel_fixed_mode->htotal = panel_fixed_mode->hdisplay +
++              ((dvo_timing->hblank_hi << 8) | dvo_timing->hblank_lo);
++
++      panel_fixed_mode->vdisplay = (dvo_timing->vactive_hi << 8) |
++              dvo_timing->vactive_lo;
++      panel_fixed_mode->vsync_start = panel_fixed_mode->vdisplay +
++              dvo_timing->vsync_off;
++      panel_fixed_mode->vsync_end = panel_fixed_mode->vsync_start +
++              dvo_timing->vsync_pulse_width;
++      panel_fixed_mode->vtotal = panel_fixed_mode->vdisplay +
++              ((dvo_timing->vblank_hi << 8) | dvo_timing->vblank_lo);
++      panel_fixed_mode->clock = dvo_timing->clock * 10;
++      panel_fixed_mode->type = DRM_MODE_TYPE_PREFERRED;
++
++      /* Some VBTs have bogus h/vtotal values */
++      if (panel_fixed_mode->hsync_end > panel_fixed_mode->htotal)
++              panel_fixed_mode->htotal = panel_fixed_mode->hsync_end + 1;
++      if (panel_fixed_mode->vsync_end > panel_fixed_mode->vtotal)
++              panel_fixed_mode->vtotal = panel_fixed_mode->vsync_end + 1;
++
++      drm_mode_set_name(panel_fixed_mode);
++}
++
++static void parse_backlight_data(struct drm_psb_private * dev_priv,
++                              struct bdb_header *bdb)
++{
++      struct bdb_lvds_backlight * vbt_lvds_bl = NULL;
++      struct bdb_lvds_backlight * lvds_bl;
++      u8 p_type = 0;
++      void * bl_start = NULL;
++      struct bdb_lvds_options * lvds_opts
++                              = find_section(bdb, BDB_LVDS_OPTIONS);
++      
++      dev_priv->lvds_bl = NULL;
++
++      if(lvds_opts) {
++              DRM_DEBUG("lvds_options found at %p\n", lvds_opts);
++              p_type = lvds_opts->panel_type;
++      } else {
++              DRM_DEBUG("no lvds_options\n");
++              return;
++      }
++
++      bl_start = find_section(bdb, BDB_LVDS_BACKLIGHT);
++      vbt_lvds_bl = (struct bdb_lvds_backlight *)(bl_start + 1) + p_type;
++
++      lvds_bl = kzalloc(sizeof(*vbt_lvds_bl), GFP_KERNEL);
++      if(!lvds_bl) {
++              DRM_DEBUG("No memory\n");
++              return;
++      }
++
++      memcpy(lvds_bl, vbt_lvds_bl, sizeof(*vbt_lvds_bl));
++
++      dev_priv->lvds_bl = lvds_bl;
++}
++
++/* Try to find integrated panel data */
++static void parse_lfp_panel_data(struct drm_psb_private *dev_priv,
++                          struct bdb_header *bdb)
++{
++      struct bdb_lvds_options *lvds_options;
++      struct bdb_lvds_lfp_data *lvds_lfp_data;
++      struct bdb_lvds_lfp_data_entry *entry;
++      struct lvds_dvo_timing *dvo_timing;
++      struct drm_display_mode *panel_fixed_mode;
++
++      /* Defaults if we can't find VBT info */
++      dev_priv->lvds_dither = 0;
++      dev_priv->lvds_vbt = 0;
++
++      lvds_options = find_section(bdb, BDB_LVDS_OPTIONS);
++      if (!lvds_options)
++              return;
++
++      dev_priv->lvds_dither = lvds_options->pixel_dither;
++      if (lvds_options->panel_type == 0xff)
++              return;
++
++      lvds_lfp_data = find_section(bdb, BDB_LVDS_LFP_DATA);
++      if (!lvds_lfp_data)
++              return;
++
++      dev_priv->lvds_vbt = 1;
++
++      entry = &lvds_lfp_data->data[lvds_options->panel_type];
++      dvo_timing = &entry->dvo_timing;
++
++      panel_fixed_mode = kzalloc(sizeof(*panel_fixed_mode),
++                                    GFP_KERNEL);
++
++      fill_detail_timing_data(panel_fixed_mode, dvo_timing);
++
++      dev_priv->lfp_lvds_vbt_mode = panel_fixed_mode;
++
++      DRM_DEBUG("Found panel mode in BIOS VBT tables:\n");
++      drm_mode_debug_printmodeline(panel_fixed_mode);
++
++      return;
++}
++
++/* Try to find sdvo panel data */
++static void parse_sdvo_panel_data(struct drm_psb_private *dev_priv,
++                    struct bdb_header *bdb)
++{
++      struct bdb_sdvo_lvds_options *sdvo_lvds_options;
++      struct lvds_dvo_timing *dvo_timing;
++      struct drm_display_mode *panel_fixed_mode;
++
++      dev_priv->sdvo_lvds_vbt_mode = NULL;
++
++      sdvo_lvds_options = find_section(bdb, BDB_SDVO_LVDS_OPTIONS);
++      if (!sdvo_lvds_options)
++              return;
++
++      dvo_timing = find_section(bdb, BDB_SDVO_PANEL_DTDS);
++      if (!dvo_timing)
++              return;
++
++      panel_fixed_mode = kzalloc(sizeof(*panel_fixed_mode), GFP_KERNEL);
++
++      if (!panel_fixed_mode)
++              return;
++
++      fill_detail_timing_data(panel_fixed_mode,
++                      dvo_timing + sdvo_lvds_options->panel_type);
++
++      dev_priv->sdvo_lvds_vbt_mode = panel_fixed_mode;
++
++      return;
++}
++
++static void parse_general_features(struct drm_psb_private *dev_priv,
++                     struct bdb_header *bdb)
++{
++      struct bdb_general_features *general;
++
++      /* Set sensible defaults in case we can't find the general block */
++      dev_priv->int_tv_support = 1;
++      dev_priv->int_crt_support = 1;
++
++      general = find_section(bdb, BDB_GENERAL_FEATURES);
++      if (general) {
++              dev_priv->int_tv_support = general->int_tv_support;
++              dev_priv->int_crt_support = general->int_crt_support;
++              dev_priv->lvds_use_ssc = general->enable_ssc;
++
++              if (dev_priv->lvds_use_ssc) {
++                if (IS_I855(dev_priv->dev))
++                  dev_priv->lvds_ssc_freq = general->ssc_freq ? 66 : 48;
++                else
++                  dev_priv->lvds_ssc_freq = general->ssc_freq ? 100 : 96;
++              }
++      }
++}
++
++/**
++ * psb_intel_init_bios - initialize VBIOS settings & find VBT
++ * @dev: DRM device
++ *
++ * Loads the Video BIOS and checks that the VBT exists.  Sets scratch registers
++ * to appropriate values.
++ *
++ * VBT existence is a sanity check that is relied on by other i830_bios.c code.
++ * Note that it would be better to use a BIOS call to get the VBT, as BIOSes may
++ * feed an updated VBT back through that, compared to what we'll fetch using
++ * this method of groping around in the BIOS data.
++ *
++ * Returns 0 on success, nonzero on failure.
++ */
++bool psb_intel_init_bios(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct pci_dev *pdev = dev->pdev;
++      struct vbt_header *vbt = NULL;
++      struct bdb_header *bdb;
++      u8 __iomem *bios;
++      size_t size;
++      int i;
++
++      bios = pci_map_rom(pdev, &size);
++      if (!bios)
++              return -1;
++
++      /* Scour memory looking for the VBT signature */
++      for (i = 0; i + 4 < size; i++) {
++              if (!memcmp(bios + i, "$VBT", 4)) {
++                      vbt = (struct vbt_header *)(bios + i);
++                      break;
++              }
++      }
++
++      if (!vbt) {
++              DRM_ERROR("VBT signature missing\n");
++              pci_unmap_rom(pdev, bios);
++              return -1;
++      }
++
++      bdb = (struct bdb_header *)(bios + i + vbt->bdb_offset);
++
++      /* Grab useful general definitions */
++      parse_general_features(dev_priv, bdb);
++      parse_lfp_panel_data(dev_priv, bdb);
++      parse_sdvo_panel_data(dev_priv, bdb);
++      parse_backlight_data(dev_priv, bdb);
++
++      pci_unmap_rom(pdev, bios);
++
++      return 0;
++}
++
++/**
++ * Destory and free VBT data
++ */
++void psb_intel_destory_bios(struct drm_device * dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct drm_display_mode * sdvo_lvds_vbt_mode =
++                              dev_priv->sdvo_lvds_vbt_mode;
++      struct drm_display_mode * lfp_lvds_vbt_mode =
++                              dev_priv->lfp_lvds_vbt_mode;
++      struct bdb_lvds_backlight * lvds_bl =
++                              dev_priv->lvds_bl;
++      
++      /*free sdvo panel mode*/
++      if(sdvo_lvds_vbt_mode) {
++              dev_priv->sdvo_lvds_vbt_mode = NULL;
++              kfree(sdvo_lvds_vbt_mode);
++      }
++
++      if(lfp_lvds_vbt_mode) {
++              dev_priv->lfp_lvds_vbt_mode = NULL;
++              kfree(lfp_lvds_vbt_mode);
++      }
++
++      if(lvds_bl) {
++              dev_priv->lvds_bl = NULL;
++              kfree(lvds_bl);
++      }
++}
+diff --git a/drivers/gpu/drm/psb/psb_intel_bios.h b/drivers/gpu/drm/psb/psb_intel_bios.h
+new file mode 100644
+index 0000000..1b0251d
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_bios.h
+@@ -0,0 +1,436 @@
++/*
++ * Copyright Â© 2006 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
++ * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
++ * SOFTWARE.
++ *
++ * Authors:
++ *    Eric Anholt <eric@anholt.net>
++ *
++ */
++
++#ifndef _I830_BIOS_H_
++#define _I830_BIOS_H_
++
++#include "drmP.h"
++
++struct vbt_header {
++      u8 signature[20];               /**< Always starts with 'VBT$' */
++      u16 version;                    /**< decimal */
++      u16 header_size;                /**< in bytes */
++      u16 vbt_size;                   /**< in bytes */
++      u8 vbt_checksum;
++      u8 reserved0;
++      u32 bdb_offset;                 /**< from beginning of VBT */
++      u32 aim_offset[4];              /**< from beginning of VBT */
++} __attribute__((packed));
++
++
++struct bdb_header {
++      u8 signature[16];               /**< Always 'BIOS_DATA_BLOCK' */
++      u16 version;                    /**< decimal */
++      u16 header_size;                /**< in bytes */
++      u16 bdb_size;                   /**< in bytes */
++};
++
++/* strictly speaking, this is a "skip" block, but it has interesting info */
++struct vbios_data {
++      u8 type; /* 0 == desktop, 1 == mobile */
++      u8 relstage;
++      u8 chipset;
++      u8 lvds_present:1;
++      u8 tv_present:1;
++      u8 rsvd2:6; /* finish byte */
++      u8 rsvd3[4];
++      u8 signon[155];
++      u8 copyright[61];
++      u16 code_segment;
++      u8 dos_boot_mode;
++      u8 bandwidth_percent;
++      u8 rsvd4; /* popup memory size */
++      u8 resize_pci_bios;
++      u8 rsvd5; /* is crt already on ddc2 */
++} __attribute__((packed));
++
++/*
++ * There are several types of BIOS data blocks (BDBs), each block has
++ * an ID and size in the first 3 bytes (ID in first, size in next 2).
++ * Known types are listed below.
++ */
++#define BDB_GENERAL_FEATURES    1
++#define BDB_GENERAL_DEFINITIONS         2
++#define BDB_OLD_TOGGLE_LIST     3
++#define BDB_MODE_SUPPORT_LIST   4
++#define BDB_GENERIC_MODE_TABLE          5
++#define BDB_EXT_MMIO_REGS       6
++#define BDB_SWF_IO              7
++#define BDB_SWF_MMIO            8
++#define BDB_DOT_CLOCK_TABLE     9
++#define BDB_MODE_REMOVAL_TABLE         10
++#define BDB_CHILD_DEVICE_TABLE         11
++#define BDB_DRIVER_FEATURES    12
++#define BDB_DRIVER_PERSISTENCE         13
++#define BDB_EXT_TABLE_PTRS     14
++#define BDB_DOT_CLOCK_OVERRIDE         15
++#define BDB_DISPLAY_SELECT     16
++/* 17 rsvd */
++#define BDB_DRIVER_ROTATION    18
++#define BDB_DISPLAY_REMOVE     19
++#define BDB_OEM_CUSTOM                 20
++#define BDB_EFP_LIST           21 /* workarounds for VGA hsync/vsync */
++#define BDB_SDVO_LVDS_OPTIONS  22
++#define BDB_SDVO_PANEL_DTDS    23
++#define BDB_SDVO_LVDS_PNP_IDS  24
++#define BDB_SDVO_LVDS_POWER_SEQ        25
++#define BDB_TV_OPTIONS                 26
++#define BDB_LVDS_OPTIONS       40
++#define BDB_LVDS_LFP_DATA_PTRS         41
++#define BDB_LVDS_LFP_DATA      42
++#define BDB_LVDS_BACKLIGHT     43
++#define BDB_LVDS_POWER                 44
++#define BDB_SKIP              254 /* VBIOS private block, ignore */
++
++struct bdb_general_features {
++        /* bits 1 */
++      u8 panel_fitting:2;
++      u8 flexaim:1;
++      u8 msg_enable:1;
++      u8 clear_screen:3;
++      u8 color_flip:1;
++
++        /* bits 2 */
++      u8 download_ext_vbt:1;
++      u8 enable_ssc:1;
++      u8 ssc_freq:1;
++      u8 enable_lfp_on_override:1;
++      u8 disable_ssc_ddt:1;
++      u8 rsvd8:3; /* finish byte */
++
++        /* bits 3 */
++      u8 disable_smooth_vision:1;
++      u8 single_dvi:1;
++      u8 rsvd9:6; /* finish byte */
++
++        /* bits 4 */
++      u8 legacy_monitor_detect;
++
++        /* bits 5 */
++      u8 int_crt_support:1;
++      u8 int_tv_support:1;
++      u8 rsvd11:6; /* finish byte */
++} __attribute__((packed));
++
++struct bdb_general_definitions {
++      /* DDC GPIO */
++      u8 crt_ddc_gmbus_pin;
++
++      /* DPMS bits */
++      u8 dpms_acpi:1;
++      u8 skip_boot_crt_detect:1;
++      u8 dpms_aim:1;
++      u8 rsvd1:5; /* finish byte */
++
++      /* boot device bits */
++      u8 boot_display[2];
++      u8 child_dev_size;
++
++      /* device info */
++      u8 tv_or_lvds_info[33];
++      u8 dev1[33];
++      u8 dev2[33];
++      u8 dev3[33];
++      u8 dev4[33];
++      /* may be another device block here on some platforms */
++};
++
++struct bdb_lvds_options {
++      u8 panel_type;
++      u8 rsvd1;
++      /* LVDS capabilities, stored in a dword */
++      u8 pfit_mode:2;
++      u8 pfit_text_mode_enhanced:1;
++      u8 pfit_gfx_mode_enhanced:1;
++      u8 pfit_ratio_auto:1;
++      u8 pixel_dither:1;
++      u8 lvds_edid:1;
++      u8 rsvd2:1;
++      u8 rsvd4;
++} __attribute__((packed));
++
++struct bdb_lvds_backlight {
++      u8 type:2;
++      u8 pol:1;
++      u8 gpio:3;
++      u8 gmbus:2;
++      u16 freq;
++      u8 minbrightness;
++      u8 i2caddr;
++      u8 brightnesscmd;
++      /*FIXME: more...*/
++}__attribute__((packed));
++
++/* LFP pointer table contains entries to the struct below */
++struct bdb_lvds_lfp_data_ptr {
++      u16 fp_timing_offset; /* offsets are from start of bdb */
++      u8 fp_table_size;
++      u16 dvo_timing_offset;
++      u8 dvo_table_size;
++      u16 panel_pnp_id_offset;
++      u8 pnp_table_size;
++} __attribute__((packed));
++
++struct bdb_lvds_lfp_data_ptrs {
++      u8 lvds_entries; /* followed by one or more lvds_data_ptr structs */
++      struct bdb_lvds_lfp_data_ptr ptr[16];
++} __attribute__((packed));
++
++/* LFP data has 3 blocks per entry */
++struct lvds_fp_timing {
++      u16 x_res;
++      u16 y_res;
++      u32 lvds_reg;
++      u32 lvds_reg_val;
++      u32 pp_on_reg;
++      u32 pp_on_reg_val;
++      u32 pp_off_reg;
++      u32 pp_off_reg_val;
++      u32 pp_cycle_reg;
++      u32 pp_cycle_reg_val;
++      u32 pfit_reg;
++      u32 pfit_reg_val;
++      u16 terminator;
++} __attribute__((packed));
++
++struct lvds_dvo_timing {
++      u16 clock;              /**< In 10khz */
++      u8 hactive_lo;
++      u8 hblank_lo;
++      u8 hblank_hi:4;
++      u8 hactive_hi:4;
++      u8 vactive_lo;
++      u8 vblank_lo;
++      u8 vblank_hi:4;
++      u8 vactive_hi:4;
++      u8 hsync_off_lo;
++      u8 hsync_pulse_width;
++      u8 vsync_pulse_width:4;
++      u8 vsync_off:4;
++      u8 rsvd0:6;
++      u8 hsync_off_hi:2;
++      u8 h_image;
++      u8 v_image;
++      u8 max_hv;
++      u8 h_border;
++      u8 v_border;
++      u8 rsvd1:3;
++      u8 digital:2;
++      u8 vsync_positive:1;
++      u8 hsync_positive:1;
++      u8 rsvd2:1;
++} __attribute__((packed));
++
++struct lvds_pnp_id {
++      u16 mfg_name;
++      u16 product_code;
++      u32 serial;
++      u8 mfg_week;
++      u8 mfg_year;
++} __attribute__((packed));
++
++struct bdb_lvds_lfp_data_entry {
++      struct lvds_fp_timing fp_timing;
++      struct lvds_dvo_timing dvo_timing;
++      struct lvds_pnp_id pnp_id;
++} __attribute__((packed));
++
++struct bdb_lvds_lfp_data {
++      struct bdb_lvds_lfp_data_entry data[16];
++} __attribute__((packed));
++
++struct aimdb_header {
++      char signature[16];
++      char oem_device[20];
++      u16 aimdb_version;
++      u16 aimdb_header_size;
++      u16 aimdb_size;
++} __attribute__((packed));
++
++struct aimdb_block {
++      u8 aimdb_id;
++      u16 aimdb_size;
++} __attribute__((packed));
++
++struct vch_panel_data {
++      u16 fp_timing_offset;
++      u8 fp_timing_size;
++      u16 dvo_timing_offset;
++      u8 dvo_timing_size;
++      u16 text_fitting_offset;
++      u8 text_fitting_size;
++      u16 graphics_fitting_offset;
++      u8 graphics_fitting_size;
++} __attribute__((packed));
++
++struct vch_bdb_22 {
++      struct aimdb_block aimdb_block;
++      struct vch_panel_data panels[16];
++} __attribute__((packed));
++
++struct bdb_sdvo_lvds_options {
++      u8 panel_backlight;
++      u8 h40_set_panel_type;
++      u8 panel_type;
++      u8 ssc_clk_freq;
++      u16 als_low_trip;
++      u16 als_high_trip;
++      u8 sclalarcoeff_tab_row_num;
++      u8 sclalarcoeff_tab_row_size;
++      u8 coefficient[8];
++      u8 panel_misc_bits_1;
++      u8 panel_misc_bits_2;
++      u8 panel_misc_bits_3;
++      u8 panel_misc_bits_4;
++} __attribute__((packed));
++
++
++extern bool psb_intel_init_bios(struct drm_device *dev);
++extern void psb_intel_destory_bios(struct drm_device * dev);
++
++/*
++ * Driver<->VBIOS interaction occurs through scratch bits in
++ * GR18 & SWF*.
++ */
++
++/* GR18 bits are set on display switch and hotkey events */
++#define GR18_DRIVER_SWITCH_EN (1<<7) /* 0: VBIOS control, 1: driver control */
++#define GR18_HOTKEY_MASK      0x78 /* See also SWF4 15:0 */
++#define   GR18_HK_NONE                (0x0<<3)
++#define   GR18_HK_LFP_STRETCH (0x1<<3)
++#define   GR18_HK_TOGGLE_DISP (0x2<<3)
++#define   GR18_HK_DISP_SWITCH (0x4<<3) /* see SWF14 15:0 for what to enable */
++#define   GR18_HK_POPUP_DISABLED (0x6<<3)
++#define   GR18_HK_POPUP_ENABLED       (0x7<<3)
++#define   GR18_HK_PFIT                (0x8<<3)
++#define   GR18_HK_APM_CHANGE  (0xa<<3)
++#define   GR18_HK_MULTIPLE    (0xc<<3)
++#define GR18_USER_INT_EN      (1<<2)
++#define GR18_A0000_FLUSH_EN   (1<<1)
++#define GR18_SMM_EN           (1<<0)
++
++/* Set by driver, cleared by VBIOS */
++#define SWF00_YRES_SHIFT      16
++#define SWF00_XRES_SHIFT      0
++#define SWF00_RES_MASK                0xffff
++
++/* Set by VBIOS at boot time and driver at runtime */
++#define SWF01_TV2_FORMAT_SHIFT        8
++#define SWF01_TV1_FORMAT_SHIFT        0
++#define SWF01_TV_FORMAT_MASK  0xffff
++
++#define SWF10_VBIOS_BLC_I2C_EN        (1<<29)
++#define SWF10_GTT_OVERRIDE_EN (1<<28)
++#define SWF10_LFP_DPMS_OVR    (1<<27) /* override DPMS on display switch */
++#define SWF10_ACTIVE_TOGGLE_LIST_MASK (7<<24)
++#define   SWF10_OLD_TOGGLE    0x0
++#define   SWF10_TOGGLE_LIST_1 0x1
++#define   SWF10_TOGGLE_LIST_2 0x2
++#define   SWF10_TOGGLE_LIST_3 0x3
++#define   SWF10_TOGGLE_LIST_4 0x4
++#define SWF10_PANNING_EN      (1<<23)
++#define SWF10_DRIVER_LOADED   (1<<22)
++#define SWF10_EXTENDED_DESKTOP        (1<<21)
++#define SWF10_EXCLUSIVE_MODE  (1<<20)
++#define SWF10_OVERLAY_EN      (1<<19)
++#define SWF10_PLANEB_HOLDOFF  (1<<18)
++#define SWF10_PLANEA_HOLDOFF  (1<<17)
++#define SWF10_VGA_HOLDOFF     (1<<16)
++#define SWF10_ACTIVE_DISP_MASK        0xffff
++#define   SWF10_PIPEB_LFP2    (1<<15)
++#define   SWF10_PIPEB_EFP2    (1<<14)
++#define   SWF10_PIPEB_TV2     (1<<13)
++#define   SWF10_PIPEB_CRT2    (1<<12)
++#define   SWF10_PIPEB_LFP     (1<<11)
++#define   SWF10_PIPEB_EFP     (1<<10)
++#define   SWF10_PIPEB_TV      (1<<9)
++#define   SWF10_PIPEB_CRT     (1<<8)
++#define   SWF10_PIPEA_LFP2    (1<<7)
++#define   SWF10_PIPEA_EFP2    (1<<6)
++#define   SWF10_PIPEA_TV2     (1<<5)
++#define   SWF10_PIPEA_CRT2    (1<<4)
++#define   SWF10_PIPEA_LFP     (1<<3)
++#define   SWF10_PIPEA_EFP     (1<<2)
++#define   SWF10_PIPEA_TV      (1<<1)
++#define   SWF10_PIPEA_CRT     (1<<0)
++
++#define SWF11_MEMORY_SIZE_SHIFT       16
++#define SWF11_SV_TEST_EN      (1<<15)
++#define SWF11_IS_AGP          (1<<14)
++#define SWF11_DISPLAY_HOLDOFF (1<<13)
++#define SWF11_DPMS_REDUCED    (1<<12)
++#define SWF11_IS_VBE_MODE     (1<<11)
++#define SWF11_PIPEB_ACCESS    (1<<10) /* 0 here means pipe a */
++#define SWF11_DPMS_MASK               0x07
++#define   SWF11_DPMS_OFF      (1<<2)
++#define   SWF11_DPMS_SUSPEND  (1<<1)
++#define   SWF11_DPMS_STANDBY  (1<<0)
++#define   SWF11_DPMS_ON               0
++
++#define SWF14_GFX_PFIT_EN     (1<<31)
++#define SWF14_TEXT_PFIT_EN    (1<<30)
++#define SWF14_LID_STATUS_CLOSED       (1<<29) /* 0 here means open */
++#define SWF14_POPUP_EN                (1<<28)
++#define SWF14_DISPLAY_HOLDOFF (1<<27)
++#define SWF14_DISP_DETECT_EN  (1<<26)
++#define SWF14_DOCKING_STATUS_DOCKED (1<<25) /* 0 here means undocked */
++#define SWF14_DRIVER_STATUS   (1<<24)
++#define SWF14_OS_TYPE_WIN9X   (1<<23)
++#define SWF14_OS_TYPE_WINNT   (1<<22)
++/* 21:19 rsvd */
++#define SWF14_PM_TYPE_MASK    0x00070000
++#define   SWF14_PM_ACPI_VIDEO (0x4 << 16)
++#define   SWF14_PM_ACPI               (0x3 << 16)
++#define   SWF14_PM_APM_12     (0x2 << 16)
++#define   SWF14_PM_APM_11     (0x1 << 16)
++#define SWF14_HK_REQUEST_MASK 0x0000ffff /* see GR18 6:3 for event type */
++          /* if GR18 indicates a display switch */
++#define   SWF14_DS_PIPEB_LFP2_EN (1<<15)
++#define   SWF14_DS_PIPEB_EFP2_EN (1<<14)
++#define   SWF14_DS_PIPEB_TV2_EN  (1<<13)
++#define   SWF14_DS_PIPEB_CRT2_EN (1<<12)
++#define   SWF14_DS_PIPEB_LFP_EN  (1<<11)
++#define   SWF14_DS_PIPEB_EFP_EN  (1<<10)
++#define   SWF14_DS_PIPEB_TV_EN   (1<<9)
++#define   SWF14_DS_PIPEB_CRT_EN  (1<<8)
++#define   SWF14_DS_PIPEA_LFP2_EN (1<<7)
++#define   SWF14_DS_PIPEA_EFP2_EN (1<<6)
++#define   SWF14_DS_PIPEA_TV2_EN  (1<<5)
++#define   SWF14_DS_PIPEA_CRT2_EN (1<<4)
++#define   SWF14_DS_PIPEA_LFP_EN  (1<<3)
++#define   SWF14_DS_PIPEA_EFP_EN  (1<<2)
++#define   SWF14_DS_PIPEA_TV_EN   (1<<1)
++#define   SWF14_DS_PIPEA_CRT_EN  (1<<0)
++          /* if GR18 indicates a panel fitting request */
++#define   SWF14_PFIT_EN               (1<<0) /* 0 means disable */
++          /* if GR18 indicates an APM change request */
++#define   SWF14_APM_HIBERNATE 0x4
++#define   SWF14_APM_SUSPEND   0x3
++#define   SWF14_APM_STANDBY   0x1
++#define   SWF14_APM_RESTORE   0x0
++
++#endif /* _I830_BIOS_H_ */
+diff --git a/drivers/gpu/drm/psb/psb_intel_display.c b/drivers/gpu/drm/psb/psb_intel_display.c
+new file mode 100644
+index 0000000..9cc0ec1
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_display.c
+@@ -0,0 +1,2484 @@
++/*
++ * Copyright Ã‚© 2006-2007 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
++ * DEALINGS IN THE SOFTWARE.
++ *
++ * Authors:
++ *    Eric Anholt <eric@anholt.net>
++ */
++
++#include <linux/i2c.h>
++
++#include <drm/drm_crtc_helper.h>
++#include "psb_fb.h"
++#include "psb_intel_display.h"
++#include "psb_powermgmt.h"
++
++struct psb_intel_clock_t {
++      /* given values */
++      int n;
++      int m1, m2;
++      int p1, p2;
++      /* derived values */
++      int dot;
++      int vco;
++      int m;
++      int p;
++};
++
++struct psb_intel_range_t {
++      int min, max;
++};
++
++struct psb_intel_p2_t {
++      int dot_limit;
++      int p2_slow, p2_fast;
++};
++
++#define INTEL_P2_NUM                2
++
++struct psb_intel_limit_t {
++      struct psb_intel_range_t dot, vco, n, m, m1, m2, p, p1;
++      struct psb_intel_p2_t p2;
++};
++
++#define I8XX_DOT_MIN            25000
++#define I8XX_DOT_MAX           350000
++#define I8XX_VCO_MIN           930000
++#define I8XX_VCO_MAX          1400000
++#define I8XX_N_MIN                  3
++#define I8XX_N_MAX                 16
++#define I8XX_M_MIN                 96
++#define I8XX_M_MAX                140
++#define I8XX_M1_MIN                18
++#define I8XX_M1_MAX                26
++#define I8XX_M2_MIN                 6
++#define I8XX_M2_MAX                16
++#define I8XX_P_MIN                  4
++#define I8XX_P_MAX                128
++#define I8XX_P1_MIN                 2
++#define I8XX_P1_MAX                33
++#define I8XX_P1_LVDS_MIN            1
++#define I8XX_P1_LVDS_MAX            6
++#define I8XX_P2_SLOW                4
++#define I8XX_P2_FAST                2
++#define I8XX_P2_LVDS_SLOW           14
++#define I8XX_P2_LVDS_FAST           14        /* No fast option */
++#define I8XX_P2_SLOW_LIMIT     165000
++
++#define I9XX_DOT_MIN            20000
++#define I9XX_DOT_MAX           400000
++#define I9XX_VCO_MIN          1400000
++#define I9XX_VCO_MAX          2800000
++#define I9XX_N_MIN                  3
++#define I9XX_N_MAX                  8
++#define I9XX_M_MIN                 70
++#define I9XX_M_MAX                120
++#define I9XX_M1_MIN                10
++#define I9XX_M1_MAX                20
++#define I9XX_M2_MIN                 5
++#define I9XX_M2_MAX                 9
++#define I9XX_P_SDVO_DAC_MIN         5
++#define I9XX_P_SDVO_DAC_MAX        80
++#define I9XX_P_LVDS_MIN                     7
++#define I9XX_P_LVDS_MAX                    98
++#define I9XX_P1_MIN                 1
++#define I9XX_P1_MAX                 8
++#define I9XX_P2_SDVO_DAC_SLOW              10
++#define I9XX_P2_SDVO_DAC_FAST               5
++#define I9XX_P2_SDVO_DAC_SLOW_LIMIT    200000
++#define I9XX_P2_LVDS_SLOW                  14
++#define I9XX_P2_LVDS_FAST                   7
++#define I9XX_P2_LVDS_SLOW_LIMIT                112000
++
++#define INTEL_LIMIT_I8XX_DVO_DAC    0
++#define INTEL_LIMIT_I8XX_LVDS     1
++#define INTEL_LIMIT_I9XX_SDVO_DAC   2
++#define INTEL_LIMIT_I9XX_LVDS     3
++
++static const struct psb_intel_limit_t psb_intel_limits[] = {
++      {                       /* INTEL_LIMIT_I8XX_DVO_DAC */
++       .dot = {.min = I8XX_DOT_MIN, .max = I8XX_DOT_MAX},
++       .vco = {.min = I8XX_VCO_MIN, .max = I8XX_VCO_MAX},
++       .n = {.min = I8XX_N_MIN, .max = I8XX_N_MAX},
++       .m = {.min = I8XX_M_MIN, .max = I8XX_M_MAX},
++       .m1 = {.min = I8XX_M1_MIN, .max = I8XX_M1_MAX},
++       .m2 = {.min = I8XX_M2_MIN, .max = I8XX_M2_MAX},
++       .p = {.min = I8XX_P_MIN, .max = I8XX_P_MAX},
++       .p1 = {.min = I8XX_P1_MIN, .max = I8XX_P1_MAX},
++       .p2 = {.dot_limit = I8XX_P2_SLOW_LIMIT,
++              .p2_slow = I8XX_P2_SLOW, .p2_fast = I8XX_P2_FAST},
++       },
++      {                       /* INTEL_LIMIT_I8XX_LVDS */
++       .dot = {.min = I8XX_DOT_MIN, .max = I8XX_DOT_MAX},
++       .vco = {.min = I8XX_VCO_MIN, .max = I8XX_VCO_MAX},
++       .n = {.min = I8XX_N_MIN, .max = I8XX_N_MAX},
++       .m = {.min = I8XX_M_MIN, .max = I8XX_M_MAX},
++       .m1 = {.min = I8XX_M1_MIN, .max = I8XX_M1_MAX},
++       .m2 = {.min = I8XX_M2_MIN, .max = I8XX_M2_MAX},
++       .p = {.min = I8XX_P_MIN, .max = I8XX_P_MAX},
++       .p1 = {.min = I8XX_P1_LVDS_MIN, .max = I8XX_P1_LVDS_MAX},
++       .p2 = {.dot_limit = I8XX_P2_SLOW_LIMIT,
++              .p2_slow = I8XX_P2_LVDS_SLOW, .p2_fast = I8XX_P2_LVDS_FAST},
++       },
++      {                       /* INTEL_LIMIT_I9XX_SDVO_DAC */
++       .dot = {.min = I9XX_DOT_MIN, .max = I9XX_DOT_MAX},
++       .vco = {.min = I9XX_VCO_MIN, .max = I9XX_VCO_MAX},
++       .n = {.min = I9XX_N_MIN, .max = I9XX_N_MAX},
++       .m = {.min = I9XX_M_MIN, .max = I9XX_M_MAX},
++       .m1 = {.min = I9XX_M1_MIN, .max = I9XX_M1_MAX},
++       .m2 = {.min = I9XX_M2_MIN, .max = I9XX_M2_MAX},
++       .p = {.min = I9XX_P_SDVO_DAC_MIN, .max = I9XX_P_SDVO_DAC_MAX},
++       .p1 = {.min = I9XX_P1_MIN, .max = I9XX_P1_MAX},
++       .p2 = {.dot_limit = I9XX_P2_SDVO_DAC_SLOW_LIMIT,
++              .p2_slow = I9XX_P2_SDVO_DAC_SLOW, .p2_fast =
++              I9XX_P2_SDVO_DAC_FAST},
++       },
++      {                       /* INTEL_LIMIT_I9XX_LVDS */
++       .dot = {.min = I9XX_DOT_MIN, .max = I9XX_DOT_MAX},
++       .vco = {.min = I9XX_VCO_MIN, .max = I9XX_VCO_MAX},
++       .n = {.min = I9XX_N_MIN, .max = I9XX_N_MAX},
++       .m = {.min = I9XX_M_MIN, .max = I9XX_M_MAX},
++       .m1 = {.min = I9XX_M1_MIN, .max = I9XX_M1_MAX},
++       .m2 = {.min = I9XX_M2_MIN, .max = I9XX_M2_MAX},
++       .p = {.min = I9XX_P_LVDS_MIN, .max = I9XX_P_LVDS_MAX},
++       .p1 = {.min = I9XX_P1_MIN, .max = I9XX_P1_MAX},
++       /* The single-channel range is 25-112Mhz, and dual-channel
++        * is 80-224Mhz.  Prefer single channel as much as possible.
++        */
++       .p2 = {.dot_limit = I9XX_P2_LVDS_SLOW_LIMIT,
++              .p2_slow = I9XX_P2_LVDS_SLOW, .p2_fast = I9XX_P2_LVDS_FAST},
++       },
++};
++
++static const struct psb_intel_limit_t *psb_intel_limit(struct drm_crtc *crtc)
++{
++      struct drm_device *dev = crtc->dev;
++      const struct psb_intel_limit_t *limit;
++
++      if (IS_I9XX(dev)) {
++              if (psb_intel_pipe_has_type(crtc, INTEL_OUTPUT_LVDS))
++                      limit = &psb_intel_limits[INTEL_LIMIT_I9XX_LVDS];
++              else
++                      limit = &psb_intel_limits[INTEL_LIMIT_I9XX_SDVO_DAC];
++      } else {
++              if (psb_intel_pipe_has_type(crtc, INTEL_OUTPUT_LVDS))
++                      limit = &psb_intel_limits[INTEL_LIMIT_I8XX_LVDS];
++              else
++                      limit = &psb_intel_limits[INTEL_LIMIT_I8XX_DVO_DAC];
++      }
++      return limit;
++}
++
++/** Derive the pixel clock for the given refclk and divisors for 8xx chips. */
++
++static void i8xx_clock(int refclk, struct psb_intel_clock_t *clock)
++{
++      clock->m = 5 * (clock->m1 + 2) + (clock->m2 + 2);
++      clock->p = clock->p1 * clock->p2;
++      clock->vco = refclk * clock->m / (clock->n + 2);
++      clock->dot = clock->vco / clock->p;
++}
++
++/** Derive the pixel clock for the given refclk and divisors for 9xx chips. */
++
++static void i9xx_clock(int refclk, struct psb_intel_clock_t *clock)
++{
++      clock->m = 5 * (clock->m1 + 2) + (clock->m2 + 2);
++      clock->p = clock->p1 * clock->p2;
++      clock->vco = refclk * clock->m / (clock->n + 2);
++      clock->dot = clock->vco / clock->p;
++}
++
++static void psb_intel_clock(struct drm_device *dev, int refclk,
++                      struct psb_intel_clock_t *clock)
++{
++      if (IS_I9XX(dev))
++              return i9xx_clock(refclk, clock);
++      else
++              return i8xx_clock(refclk, clock);
++}
++
++/**
++ * Returns whether any output on the specified pipe is of the specified type
++ */
++bool psb_intel_pipe_has_type(struct drm_crtc *crtc, int type)
++{
++      struct drm_device *dev = crtc->dev;
++      struct drm_mode_config *mode_config = &dev->mode_config;
++      struct drm_connector *l_entry;
++
++      list_for_each_entry(l_entry, &mode_config->connector_list, head) {
++              if (l_entry->encoder && l_entry->encoder->crtc == crtc) {
++                      struct psb_intel_output *psb_intel_output =
++                          to_psb_intel_output(l_entry);
++                      if (psb_intel_output->type == type)
++                              return true;
++              }
++      }
++      return false;
++}
++
++#define INTELPllInvalid(s)   { /* ErrorF (s) */; return false; }
++/**
++ * Returns whether the given set of divisors are valid for a given refclk with
++ * the given connectors.
++ */
++
++static bool psb_intel_PLL_is_valid(struct drm_crtc *crtc,
++                             struct psb_intel_clock_t *clock)
++{
++      const struct psb_intel_limit_t *limit = psb_intel_limit(crtc);
++
++      if (clock->p1 < limit->p1.min || limit->p1.max < clock->p1)
++              INTELPllInvalid("p1 out of range\n");
++      if (clock->p < limit->p.min || limit->p.max < clock->p)
++              INTELPllInvalid("p out of range\n");
++      if (clock->m2 < limit->m2.min || limit->m2.max < clock->m2)
++              INTELPllInvalid("m2 out of range\n");
++      if (clock->m1 < limit->m1.min || limit->m1.max < clock->m1)
++              INTELPllInvalid("m1 out of range\n");
++      if (clock->m1 <= clock->m2)
++              INTELPllInvalid("m1 <= m2\n");
++      if (clock->m < limit->m.min || limit->m.max < clock->m)
++              INTELPllInvalid("m out of range\n");
++      if (clock->n < limit->n.min || limit->n.max < clock->n)
++              INTELPllInvalid("n out of range\n");
++      if (clock->vco < limit->vco.min || limit->vco.max < clock->vco)
++              INTELPllInvalid("vco out of range\n");
++      /* XXX: We may need to be checking "Dot clock"
++       * depending on the multiplier, connector, etc.,
++       * rather than just a single range.
++       */
++      if (clock->dot < limit->dot.min || limit->dot.max < clock->dot)
++              INTELPllInvalid("dot out of range\n");
++
++      return true;
++}
++
++/**
++ * Returns a set of divisors for the desired target clock with the given
++ * refclk, or FALSE.  The returned values represent the clock equation:
++ * reflck * (5 * (m1 + 2) + (m2 + 2)) / (n + 2) / p1 / p2.
++ */
++static bool psb_intel_find_best_PLL(struct drm_crtc *crtc, int target,
++                              int refclk,
++                              struct psb_intel_clock_t *best_clock)
++{
++      struct drm_device *dev = crtc->dev;
++      struct psb_intel_clock_t clock;
++      const struct psb_intel_limit_t *limit = psb_intel_limit(crtc);
++      int err = target;
++
++      if (IS_I9XX(dev) && psb_intel_pipe_has_type(crtc, INTEL_OUTPUT_LVDS) &&
++          (REG_READ(LVDS) & LVDS_PORT_EN) != 0) {
++              /*
++               * For LVDS, if the panel is on, just rely on its current
++               * settings for dual-channel.  We haven't figured out how to
++               * reliably set up different single/dual channel state, if we
++               * even can.
++               */
++              if ((REG_READ(LVDS) & LVDS_CLKB_POWER_MASK) ==
++                  LVDS_CLKB_POWER_UP)
++                      clock.p2 = limit->p2.p2_fast;
++              else
++                      clock.p2 = limit->p2.p2_slow;
++      } else {
++              if (target < limit->p2.dot_limit)
++                      clock.p2 = limit->p2.p2_slow;
++              else
++                      clock.p2 = limit->p2.p2_fast;
++      }
++
++      memset(best_clock, 0, sizeof(*best_clock));
++
++      for (clock.m1 = limit->m1.min; clock.m1 <= limit->m1.max;
++           clock.m1++) {
++              for (clock.m2 = limit->m2.min;
++                   clock.m2 < clock.m1 && clock.m2 <= limit->m2.max;
++                   clock.m2++) {
++                      for (clock.n = limit->n.min;
++                           clock.n <= limit->n.max; clock.n++) {
++                              for (clock.p1 = limit->p1.min;
++                                   clock.p1 <= limit->p1.max;
++                                   clock.p1++) {
++                                      int this_err;
++
++                                      psb_intel_clock(dev, refclk, &clock);
++
++                                      if (!psb_intel_PLL_is_valid
++                                          (crtc, &clock))
++                                              continue;
++
++                                      this_err = abs(clock.dot - target);
++                                      if (this_err < err) {
++                                              *best_clock = clock;
++                                              err = this_err;
++                                      }
++                              }
++                      }
++              }
++      }
++
++      return err != target;
++}
++
++void psb_intel_wait_for_vblank(struct drm_device *dev)
++{
++      /* Wait for 20ms, i.e. one cycle at 50hz. */
++      udelay(20000);
++}
++
++int psb_intel_pipe_set_base(struct drm_crtc *crtc, int x, int y, struct drm_framebuffer *old_fb)
++{
++      struct drm_device *dev = crtc->dev;
++      /* struct drm_i915_master_private *master_priv; */
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      struct psb_framebuffer *psbfb = to_psb_fb(crtc->fb);
++      struct psb_intel_mode_device *mode_dev = psb_intel_crtc->mode_dev;
++      int pipe = psb_intel_crtc->pipe;
++      unsigned long Start, Offset;
++      int dspbase = (pipe == 0 ? DSPABASE : DSPBBASE);
++      int dspsurf = (pipe == 0 ? DSPASURF : DSPBSURF);
++      int dspstride = (pipe == 0) ? DSPASTRIDE : DSPBSTRIDE;
++      int dspcntr_reg = (pipe == 0) ? DSPACNTR : DSPBCNTR;
++      u32 dspcntr;
++      int ret = 0;
++
++      /* no fb bound */
++      if (!crtc->fb) {
++              DRM_DEBUG("No FB bound\n");
++              return 0;
++      }
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      if (IS_MRST(dev) && (pipe == 0))
++              dspbase = MRST_DSPABASE;
++
++      Start = mode_dev->bo_offset(dev, psbfb->bo);
++      Offset = y * crtc->fb->pitch + x * (crtc->fb->bits_per_pixel / 8);
++
++      REG_WRITE(dspstride, crtc->fb->pitch);
++
++      dspcntr = REG_READ(dspcntr_reg);
++      dspcntr &= ~DISPPLANE_PIXFORMAT_MASK;
++
++      switch (crtc->fb->bits_per_pixel) {
++      case 8:
++              dspcntr |= DISPPLANE_8BPP;
++              break;
++      case 16:
++              if (crtc->fb->depth == 15)
++                      dspcntr |= DISPPLANE_15_16BPP;
++              else
++                      dspcntr |= DISPPLANE_16BPP;
++              break;
++      case 24:
++      case 32:
++              dspcntr |= DISPPLANE_32BPP_NO_ALPHA;
++              break;
++      default:
++              DRM_ERROR("Unknown color depth\n");
++              ret = -EINVAL;
++              goto psb_intel_pipe_set_base_exit;
++      }
++      REG_WRITE(dspcntr_reg, dspcntr);
++
++      DRM_DEBUG("Writing base %08lX %08lX %d %d\n", Start, Offset, x, y);
++      if (IS_I965G(dev) || IS_MRST(dev)) {
++              REG_WRITE(dspbase, Offset);
++              REG_READ(dspbase);
++              REG_WRITE(dspsurf, Start);
++              REG_READ(dspsurf);
++      } else {
++              REG_WRITE(dspbase, Start + Offset);
++              REG_READ(dspbase);
++      }
++
++psb_intel_pipe_set_base_exit:
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++
++      return ret;
++}
++
++int psb_kms_flip_set_base(struct drm_crtc *crtc, int x, int y, struct drm_framebuffer *old_fb)
++{
++      struct drm_device *dev = crtc->dev;
++      struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      struct psb_framebuffer *psbfb = to_psb_fb(crtc->fb);
++      struct psb_intel_mode_device *mode_dev = psb_intel_crtc->mode_dev;
++      int pipe = psb_intel_crtc->pipe;
++
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      struct psb_task *task = NULL;
++      task = kzalloc(sizeof(*task), GFP_KERNEL);
++      if (!task)
++              return -ENOMEM;
++      INIT_LIST_HEAD(&task->head);
++      INIT_LIST_HEAD(&task->buf.head);
++      task->task_type = psb_flip_task;
++
++      spin_lock_irq(&scheduler->lock);
++      list_add_tail(&task->head, &scheduler->ta_queue);
++      /**
++      * From this point we may no longer dereference task,
++      * as the object it points to may be freed by another thread.
++      */
++              
++      task = NULL;
++      spin_unlock_irq(&scheduler->lock);
++
++      /* no fb bound */
++      if (!crtc->fb) {
++              DRM_DEBUG("No FB bound\n");
++              return 0;
++      }
++
++      dev_priv->flip_start[pipe] = mode_dev->bo_offset(dev, psbfb->bo);
++      dev_priv->flip_offset[pipe] = y * crtc->fb->pitch + x * (crtc->fb->bits_per_pixel / 8);
++      dev_priv->flip_stride[pipe] = crtc->fb->pitch;
++      dev_priv->pipe_active[pipe] = 1;
++      dev_priv->pipe_active[1-pipe] = 0;
++
++      return 0;
++}
++
++/**
++ * Sets the power management mode of the pipe and plane.
++ *
++ * This code should probably grow support for turning the cursor off and back
++ * on appropriately at the same time as we're turning the pipe off/on.
++ */
++static void psb_intel_crtc_dpms(struct drm_crtc *crtc, int mode)
++{
++      struct drm_device *dev = crtc->dev;
++      /* struct drm_i915_master_private *master_priv; */
++      /* struct drm_i915_private *dev_priv = dev->dev_private; */
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      int pipe = psb_intel_crtc->pipe;
++      int dpll_reg = (pipe == 0) ? DPLL_A : DPLL_B;
++      int dspcntr_reg = (pipe == 0) ? DSPACNTR : DSPBCNTR;
++      int dspbase_reg = (pipe == 0) ? DSPABASE : DSPBBASE;
++      int pipeconf_reg = (pipe == 0) ? PIPEACONF : PIPEBCONF;
++      u32 temp;
++      bool enabled;
++
++      /* XXX: When our outputs are all unaware of DPMS modes other than off
++       * and on, we should map those modes to DRM_MODE_DPMS_OFF in the CRTC.
++       */
++      switch (mode) {
++      case DRM_MODE_DPMS_ON:
++      case DRM_MODE_DPMS_STANDBY:
++      case DRM_MODE_DPMS_SUSPEND:
++              /* Enable the DPLL */
++              temp = REG_READ(dpll_reg);
++              if ((temp & DPLL_VCO_ENABLE) == 0) {
++                      REG_WRITE(dpll_reg, temp);
++                      REG_READ(dpll_reg);
++                      /* Wait for the clocks to stabilize. */
++                      udelay(150);
++                      REG_WRITE(dpll_reg, temp | DPLL_VCO_ENABLE);
++                      REG_READ(dpll_reg);
++                      /* Wait for the clocks to stabilize. */
++                      udelay(150);
++                      REG_WRITE(dpll_reg, temp | DPLL_VCO_ENABLE);
++                      REG_READ(dpll_reg);
++                      /* Wait for the clocks to stabilize. */
++                      udelay(150);
++              }
++
++              /* Enable the pipe */
++              temp = REG_READ(pipeconf_reg);
++              if ((temp & PIPEACONF_ENABLE) == 0)
++                      REG_WRITE(pipeconf_reg, temp | PIPEACONF_ENABLE);
++
++              /* Enable the plane */
++              temp = REG_READ(dspcntr_reg);
++              if ((temp & DISPLAY_PLANE_ENABLE) == 0) {
++                      REG_WRITE(dspcntr_reg,
++                                temp | DISPLAY_PLANE_ENABLE);
++                      /* Flush the plane changes */
++                      REG_WRITE(dspbase_reg, REG_READ(dspbase_reg));
++              }
++
++              psb_intel_crtc_load_lut(crtc);
++
++              /* Give the overlay scaler a chance to enable
++               * if it's on this pipe */
++              /* psb_intel_crtc_dpms_video(crtc, true); TODO */
++              break;
++      case DRM_MODE_DPMS_OFF:
++              /* Give the overlay scaler a chance to disable
++               * if it's on this pipe */
++              /* psb_intel_crtc_dpms_video(crtc, FALSE); TODO */
++
++              /* Disable the VGA plane that we never use */
++              REG_WRITE(VGACNTRL, VGA_DISP_DISABLE);
++
++              /* Disable display plane */
++              temp = REG_READ(dspcntr_reg);
++              if ((temp & DISPLAY_PLANE_ENABLE) != 0) {
++                      REG_WRITE(dspcntr_reg,
++                                temp & ~DISPLAY_PLANE_ENABLE);
++                      /* Flush the plane changes */
++                      REG_WRITE(dspbase_reg, REG_READ(dspbase_reg));
++                      REG_READ(dspbase_reg);
++              }
++
++              if (!IS_I9XX(dev)) {
++                      /* Wait for vblank for the disable to take effect */
++                      psb_intel_wait_for_vblank(dev);
++              }
++
++              /* Next, disable display pipes */
++              temp = REG_READ(pipeconf_reg);
++              if ((temp & PIPEACONF_ENABLE) != 0) {
++                      REG_WRITE(pipeconf_reg, temp & ~PIPEACONF_ENABLE);
++                      REG_READ(pipeconf_reg);
++              }
++
++              /* Wait for vblank for the disable to take effect. */
++              psb_intel_wait_for_vblank(dev);
++
++              temp = REG_READ(dpll_reg);
++              if ((temp & DPLL_VCO_ENABLE) != 0) {
++                      REG_WRITE(dpll_reg, temp & ~DPLL_VCO_ENABLE);
++                      REG_READ(dpll_reg);
++              }
++
++              /* Wait for the clocks to turn off. */
++              udelay(150);
++              break;
++      }
++
++      enabled = crtc->enabled && mode != DRM_MODE_DPMS_OFF;
++
++#if 0                         /* JB: Add vblank support later */
++      if (enabled)
++              dev_priv->vblank_pipe |= (1 << pipe);
++      else
++              dev_priv->vblank_pipe &= ~(1 << pipe);
++#endif
++
++      psb_intel_crtc->dpms_mode = mode;
++
++#if 0                         /* JB: Add sarea support later */
++      if (!dev->primary->master)
++              return 0;
++
++      master_priv = dev->primary->master->driver_priv;
++      if (!master_priv->sarea_priv)
++              return 0;
++
++      switch (pipe) {
++      case 0:
++              master_priv->sarea_priv->planeA_w =
++                  enabled ? crtc->mode.hdisplay : 0;
++              master_priv->sarea_priv->planeA_h =
++                  enabled ? crtc->mode.vdisplay : 0;
++              break;
++      case 1:
++              master_priv->sarea_priv->planeB_w =
++                  enabled ? crtc->mode.hdisplay : 0;
++              master_priv->sarea_priv->planeB_h =
++                  enabled ? crtc->mode.vdisplay : 0;
++              break;
++      default:
++              DRM_ERROR("Can't update pipe %d in SAREA\n", pipe);
++              break;
++      }
++#endif
++
++      /*Set FIFO Watermarks*/
++      REG_WRITE(DSPARB, 0x3F3E);
++}
++
++static void psb_intel_crtc_prepare(struct drm_crtc *crtc)
++{
++      struct drm_crtc_helper_funcs *crtc_funcs = crtc->helper_private;
++      crtc_funcs->dpms(crtc, DRM_MODE_DPMS_OFF);
++}
++
++static void psb_intel_crtc_commit(struct drm_crtc *crtc)
++{
++      struct drm_crtc_helper_funcs *crtc_funcs = crtc->helper_private;
++      crtc_funcs->dpms(crtc, DRM_MODE_DPMS_ON);
++}
++
++void psb_intel_encoder_prepare(struct drm_encoder *encoder)
++{
++      struct drm_encoder_helper_funcs *encoder_funcs =
++          encoder->helper_private;
++      /* lvds has its own version of prepare see psb_intel_lvds_prepare */
++      encoder_funcs->dpms(encoder, DRM_MODE_DPMS_OFF);
++}
++
++void psb_intel_encoder_commit(struct drm_encoder *encoder)
++{
++      struct drm_encoder_helper_funcs *encoder_funcs =
++          encoder->helper_private;
++      /* lvds has its own version of commit see psb_intel_lvds_commit */
++      encoder_funcs->dpms(encoder, DRM_MODE_DPMS_ON);
++}
++
++static bool psb_intel_crtc_mode_fixup(struct drm_crtc *crtc,
++                                struct drm_display_mode *mode,
++                                struct drm_display_mode *adjusted_mode)
++{
++      return true;
++}
++
++
++/**
++ * Return the pipe currently connected to the panel fitter,
++ * or -1 if the panel fitter is not present or not in use
++ */
++static int psb_intel_panel_fitter_pipe(struct drm_device *dev)
++{
++      u32 pfit_control;
++
++      /* i830 doesn't have a panel fitter */
++      if (IS_I830(dev))
++              return -1;
++
++      pfit_control = REG_READ(PFIT_CONTROL);
++
++      /* See if the panel fitter is in use */
++      if ((pfit_control & PFIT_ENABLE) == 0)
++              return -1;
++
++      /* 965 can place panel fitter on either pipe */
++      if (IS_I965G(dev) || IS_MRST(dev))
++              return (pfit_control >> 29) & 0x3;
++
++      /* older chips can only use pipe 1 */
++      return 1;
++}
++
++static int psb_intel_crtc_mode_set(struct drm_crtc *crtc,
++                             struct drm_display_mode *mode,
++                             struct drm_display_mode *adjusted_mode,
++                             int x, int y,
++                             struct drm_framebuffer *old_fb)
++{
++      struct drm_device *dev = crtc->dev;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      int pipe = psb_intel_crtc->pipe;
++      int fp_reg = (pipe == 0) ? FPA0 : FPB0;
++      int dpll_reg = (pipe == 0) ? DPLL_A : DPLL_B;
++      int dpll_md_reg = (psb_intel_crtc->pipe == 0) ? DPLL_A_MD : DPLL_B_MD;
++      int dspcntr_reg = (pipe == 0) ? DSPACNTR : DSPBCNTR;
++      int pipeconf_reg = (pipe == 0) ? PIPEACONF : PIPEBCONF;
++      int htot_reg = (pipe == 0) ? HTOTAL_A : HTOTAL_B;
++      int hblank_reg = (pipe == 0) ? HBLANK_A : HBLANK_B;
++      int hsync_reg = (pipe == 0) ? HSYNC_A : HSYNC_B;
++      int vtot_reg = (pipe == 0) ? VTOTAL_A : VTOTAL_B;
++      int vblank_reg = (pipe == 0) ? VBLANK_A : VBLANK_B;
++      int vsync_reg = (pipe == 0) ? VSYNC_A : VSYNC_B;
++      int dspsize_reg = (pipe == 0) ? DSPASIZE : DSPBSIZE;
++      int dsppos_reg = (pipe == 0) ? DSPAPOS : DSPBPOS;
++      int pipesrc_reg = (pipe == 0) ? PIPEASRC : PIPEBSRC;
++      int refclk;
++      struct psb_intel_clock_t clock;
++      u32 dpll = 0, fp = 0, dspcntr, pipeconf;
++      bool ok, is_sdvo = false, is_dvo = false;
++      bool is_crt = false, is_lvds = false, is_tv = false;
++      struct drm_mode_config *mode_config = &dev->mode_config;
++      struct drm_connector *connector;
++
++      list_for_each_entry(connector, &mode_config->connector_list, head) {
++              struct psb_intel_output *psb_intel_output =
++                  to_psb_intel_output(connector);
++
++              if (!connector->encoder
++                  || connector->encoder->crtc != crtc)
++                      continue;
++
++              switch (psb_intel_output->type) {
++              case INTEL_OUTPUT_LVDS:
++                      is_lvds = true;
++                      break;
++              case INTEL_OUTPUT_SDVO:
++                      is_sdvo = true;
++                      break;
++              case INTEL_OUTPUT_DVO:
++                      is_dvo = true;
++                      break;
++              case INTEL_OUTPUT_TVOUT:
++                      is_tv = true;
++                      break;
++              case INTEL_OUTPUT_ANALOG:
++                      is_crt = true;
++                      break;
++              }
++      }
++
++      if (IS_I9XX(dev))
++              refclk = 96000;
++      else
++              refclk = 48000;
++
++      ok = psb_intel_find_best_PLL(crtc, adjusted_mode->clock, refclk,
++                               &clock);
++      if (!ok) {
++              DRM_ERROR("Couldn't find PLL settings for mode!\n");
++              return 0;
++      }
++
++      fp = clock.n << 16 | clock.m1 << 8 | clock.m2;
++
++      dpll = DPLL_VGA_MODE_DIS;
++      if (IS_I9XX(dev)) {
++              if (is_lvds) {
++                      dpll |= DPLLB_MODE_LVDS;
++                      if (IS_POULSBO(dev))
++                              dpll |= DPLL_DVO_HIGH_SPEED;
++              } else
++                      dpll |= DPLLB_MODE_DAC_SERIAL;
++              if (is_sdvo) {
++                      dpll |= DPLL_DVO_HIGH_SPEED;
++                      if (IS_I945G(dev) || IS_I945GM(dev) || IS_POULSBO(dev)) {
++                              int sdvo_pixel_multiply =
++                                  adjusted_mode->clock / mode->clock;
++                              dpll |=
++                                  (sdvo_pixel_multiply -
++                                   1) << SDVO_MULTIPLIER_SHIFT_HIRES;
++                      }
++              }
++
++              /* compute bitmask from p1 value */
++              dpll |= (1 << (clock.p1 - 1)) << 16;
++              switch (clock.p2) {
++              case 5:
++                      dpll |= DPLL_DAC_SERIAL_P2_CLOCK_DIV_5;
++                      break;
++              case 7:
++                      dpll |= DPLLB_LVDS_P2_CLOCK_DIV_7;
++                      break;
++              case 10:
++                      dpll |= DPLL_DAC_SERIAL_P2_CLOCK_DIV_10;
++                      break;
++              case 14:
++                      dpll |= DPLLB_LVDS_P2_CLOCK_DIV_14;
++                      break;
++              }
++              if (IS_I965G(dev))
++                      dpll |= (6 << PLL_LOAD_PULSE_PHASE_SHIFT);
++      } else {
++              if (is_lvds) {
++                      dpll |=
++                          (1 << (clock.p1 - 1)) <<
++                          DPLL_FPA01_P1_POST_DIV_SHIFT;
++              } else {
++                      if (clock.p1 == 2)
++                              dpll |= PLL_P1_DIVIDE_BY_TWO;
++                      else
++                              dpll |=
++                                  (clock.p1 -
++                                   2) << DPLL_FPA01_P1_POST_DIV_SHIFT;
++                      if (clock.p2 == 4)
++                              dpll |= PLL_P2_DIVIDE_BY_4;
++              }
++      }
++
++      if (is_tv) {
++              /* XXX: just matching BIOS for now */
++/*    dpll |= PLL_REF_INPUT_TVCLKINBC; */
++              dpll |= 3;
++      }
++#if 0
++      else if (is_lvds)
++              dpll |= PLLB_REF_INPUT_SPREADSPECTRUMIN;
++#endif
++      else
++              dpll |= PLL_REF_INPUT_DREFCLK;
++
++      /* setup pipeconf */
++      pipeconf = REG_READ(pipeconf_reg);
++
++      /* Set up the display plane register */
++      dspcntr = DISPPLANE_GAMMA_ENABLE;
++
++      if (pipe == 0)
++              dspcntr |= DISPPLANE_SEL_PIPE_A;
++      else
++              dspcntr |= DISPPLANE_SEL_PIPE_B;
++
++      dspcntr |= DISPLAY_PLANE_ENABLE;
++      pipeconf |= PIPEACONF_ENABLE;
++      dpll |= DPLL_VCO_ENABLE;
++
++
++      /* Disable the panel fitter if it was on our pipe */
++      if (psb_intel_panel_fitter_pipe(dev) == pipe)
++              REG_WRITE(PFIT_CONTROL, 0);
++
++      DRM_DEBUG("Mode for pipe %c:\n", pipe == 0 ? 'A' : 'B');
++      drm_mode_debug_printmodeline(mode);
++
++      if (dpll & DPLL_VCO_ENABLE) {
++              REG_WRITE(fp_reg, fp);
++              REG_WRITE(dpll_reg, dpll & ~DPLL_VCO_ENABLE);
++              REG_READ(dpll_reg);
++              udelay(150);
++      }
++
++      /* The LVDS pin pair needs to be on before the DPLLs are enabled.
++       * This is an exception to the general rule that mode_set doesn't turn
++       * things on.
++       */
++      if (is_lvds) {
++              u32 lvds = REG_READ(LVDS);
++
++              lvds |=
++                  LVDS_PORT_EN | LVDS_A0A2_CLKA_POWER_UP |
++                  LVDS_PIPEB_SELECT;
++              /* Set the B0-B3 data pairs corresponding to
++               * whether we're going to
++               * set the DPLLs for dual-channel mode or not.
++               */
++              if (clock.p2 == 7)
++                      lvds |= LVDS_B0B3_POWER_UP | LVDS_CLKB_POWER_UP;
++              else
++                      lvds &= ~(LVDS_B0B3_POWER_UP | LVDS_CLKB_POWER_UP);
++
++              /* It would be nice to set 24 vs 18-bit mode (LVDS_A3_POWER_UP)
++               * appropriately here, but we need to look more
++               * thoroughly into how panels behave in the two modes.
++               */
++
++              REG_WRITE(LVDS, lvds);
++              REG_READ(LVDS);
++      }
++
++      REG_WRITE(fp_reg, fp);
++      REG_WRITE(dpll_reg, dpll);
++      REG_READ(dpll_reg);
++      /* Wait for the clocks to stabilize. */
++      udelay(150);
++
++      if (IS_I965G(dev)) {
++              int sdvo_pixel_multiply =
++                  adjusted_mode->clock / mode->clock;
++              REG_WRITE(dpll_md_reg,
++                        (0 << DPLL_MD_UDI_DIVIDER_SHIFT) |
++                        ((sdvo_pixel_multiply -
++                          1) << DPLL_MD_UDI_MULTIPLIER_SHIFT));
++      } else {
++              /* write it again -- the BIOS does, after all */
++              REG_WRITE(dpll_reg, dpll);
++      }
++      REG_READ(dpll_reg);
++      /* Wait for the clocks to stabilize. */
++      udelay(150);
++
++      REG_WRITE(htot_reg, (adjusted_mode->crtc_hdisplay - 1) |
++                ((adjusted_mode->crtc_htotal - 1) << 16));
++      REG_WRITE(hblank_reg, (adjusted_mode->crtc_hblank_start - 1) |
++                ((adjusted_mode->crtc_hblank_end - 1) << 16));
++      REG_WRITE(hsync_reg, (adjusted_mode->crtc_hsync_start - 1) |
++                ((adjusted_mode->crtc_hsync_end - 1) << 16));
++      REG_WRITE(vtot_reg, (adjusted_mode->crtc_vdisplay - 1) |
++                ((adjusted_mode->crtc_vtotal - 1) << 16));
++      REG_WRITE(vblank_reg, (adjusted_mode->crtc_vblank_start - 1) |
++                ((adjusted_mode->crtc_vblank_end - 1) << 16));
++      REG_WRITE(vsync_reg, (adjusted_mode->crtc_vsync_start - 1) |
++                ((adjusted_mode->crtc_vsync_end - 1) << 16));
++      /* pipesrc and dspsize control the size that is scaled from,
++       * which should always be the user's requested size.
++       */
++      REG_WRITE(dspsize_reg,
++                ((mode->vdisplay - 1) << 16) | (mode->hdisplay - 1));
++      REG_WRITE(dsppos_reg, 0);
++      REG_WRITE(pipesrc_reg,
++                ((mode->hdisplay - 1) << 16) | (mode->vdisplay - 1));
++      REG_WRITE(pipeconf_reg, pipeconf);
++      REG_READ(pipeconf_reg);
++
++      psb_intel_wait_for_vblank(dev);
++
++      REG_WRITE(dspcntr_reg, dspcntr);
++
++      /* Flush the plane changes */
++      {
++              struct drm_crtc_helper_funcs *crtc_funcs =
++                  crtc->helper_private;
++              crtc_funcs->mode_set_base(crtc, x, y, old_fb);
++      }
++
++      psb_intel_wait_for_vblank(dev);
++
++      return 0;
++}
++
++/** Loads the palette/gamma unit for the CRTC with the prepared values */
++void psb_intel_crtc_load_lut(struct drm_crtc *crtc)
++{
++      struct drm_device *dev = crtc->dev;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      int palreg = (psb_intel_crtc->pipe == 0) ? PALETTE_A : PALETTE_B;
++      int i;
++
++      /* The clocks have to be on to load the palette. */
++      if (!crtc->enabled)
++              return;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              for (i = 0; i < 256; i++) {
++                      REG_WRITE(palreg + 4 * i,
++                                (psb_intel_crtc->lut_r[i] << 16) |
++                                (psb_intel_crtc->lut_g[i] << 8) |
++                                psb_intel_crtc->lut_b[i]);
++              }
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++}
++
++#ifndef CONFIG_MRST
++/**
++ * Save HW states of giving crtc
++ */
++static void psb_intel_crtc_save(struct drm_crtc * crtc)
++{
++      struct drm_device * dev = crtc->dev;
++      // struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;
++      struct psb_intel_crtc * psb_intel_crtc = to_psb_intel_crtc(crtc);
++      struct psb_intel_crtc_state * crtc_state = psb_intel_crtc->crtc_state;
++      int pipeA = (psb_intel_crtc->pipe == 0);
++      uint32_t paletteReg;
++      int i;
++      
++      DRM_DEBUG("\n");
++
++      if(!crtc_state) {
++              DRM_DEBUG("No CRTC state found\n");
++              return;
++      }
++      
++      crtc_state->saveDSPCNTR = REG_READ(pipeA ? DSPACNTR : DSPBCNTR);
++      crtc_state->savePIPECONF = REG_READ(pipeA ? PIPEACONF : PIPEBCONF);
++      crtc_state->savePIPESRC = REG_READ(pipeA ? PIPEASRC : PIPEBSRC);
++      crtc_state->saveFP0 = REG_READ(pipeA ? FPA0 : FPB0);
++      crtc_state->saveFP1 = REG_READ(pipeA ? FPA1 : FPB1);
++      crtc_state->saveDPLL = REG_READ(pipeA ? DPLL_A : DPLL_B);
++      crtc_state->saveHTOTAL = REG_READ(pipeA ? HTOTAL_A : HTOTAL_B);
++      crtc_state->saveHBLANK = REG_READ(pipeA ? HBLANK_A : HBLANK_B);
++      crtc_state->saveHSYNC = REG_READ(pipeA ? HSYNC_A : HSYNC_B);
++      crtc_state->saveVTOTAL = REG_READ(pipeA ? VTOTAL_A : VTOTAL_B);
++      crtc_state->saveVBLANK = REG_READ(pipeA ? VBLANK_A : VBLANK_B);
++      crtc_state->saveVSYNC = REG_READ(pipeA ? VSYNC_A : VSYNC_B);
++      crtc_state->saveDSPSTRIDE = REG_READ(pipeA ? DSPASTRIDE : DSPBSTRIDE);  
++      
++      /*NOTE: DSPSIZE DSPPOS only for psb*/
++      crtc_state->saveDSPSIZE = REG_READ(pipeA ? DSPASIZE : DSPBSIZE);
++      crtc_state->saveDSPPOS = REG_READ(pipeA ? DSPAPOS : DSPBPOS);   
++      
++      crtc_state->saveDSPBASE = REG_READ(pipeA ? DSPABASE : DSPBBASE);
++      
++      DRM_DEBUG("(%x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x)\n",
++                      crtc_state->saveDSPCNTR,
++                      crtc_state->savePIPECONF,
++                      crtc_state->savePIPESRC,
++                      crtc_state->saveFP0,
++                      crtc_state->saveFP1,
++                      crtc_state->saveDPLL,
++                      crtc_state->saveHTOTAL,
++                      crtc_state->saveHBLANK,
++                      crtc_state->saveHSYNC,
++                      crtc_state->saveVTOTAL,
++                      crtc_state->saveVBLANK,
++                      crtc_state->saveVSYNC,
++                      crtc_state->saveDSPSTRIDE,
++                      crtc_state->saveDSPSIZE,
++                      crtc_state->saveDSPPOS,
++                      crtc_state->saveDSPBASE
++              );
++      
++      paletteReg = pipeA ? PALETTE_A : PALETTE_B;
++      for(i=0; i<256; ++i) {
++              crtc_state->savePalette[i] = REG_READ(paletteReg + (i << 2));
++      }
++}
++
++/**
++ * Restore HW states of giving crtc
++ */
++static void psb_intel_crtc_restore(struct drm_crtc * crtc)
++{
++      struct drm_device * dev = crtc->dev;
++        // struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;
++        struct psb_intel_crtc * psb_intel_crtc =  to_psb_intel_crtc(crtc);
++      struct psb_intel_crtc_state * crtc_state = psb_intel_crtc->crtc_state;
++      // struct drm_crtc_helper_funcs * crtc_funcs = crtc->helper_private;
++        int pipeA = (psb_intel_crtc->pipe == 0);
++        uint32_t paletteReg;
++        int i;        
++
++      DRM_DEBUG("\n");
++
++      if(!crtc_state) {
++              DRM_DEBUG("No crtc state\n");
++              return;
++      }
++
++      DRM_DEBUG("current: (%x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x)\n",
++              REG_READ(pipeA ? DSPACNTR : DSPBCNTR),
++              REG_READ(pipeA ? PIPEACONF : PIPEBCONF),
++              REG_READ(pipeA ? PIPEASRC : PIPEBSRC),
++              REG_READ(pipeA ? FPA0 : FPB0),
++              REG_READ(pipeA ? FPA1 : FPB1),
++              REG_READ(pipeA ? DPLL_A : DPLL_B),
++              REG_READ(pipeA ? HTOTAL_A : HTOTAL_B),
++              REG_READ(pipeA ? HBLANK_A : HBLANK_B),
++              REG_READ(pipeA ? HSYNC_A : HSYNC_B),
++              REG_READ(pipeA ? VTOTAL_A : VTOTAL_B),
++              REG_READ(pipeA ? VBLANK_A : VBLANK_B),
++              REG_READ(pipeA ? VSYNC_A : VSYNC_B),
++              REG_READ(pipeA ? DSPASTRIDE : DSPBSTRIDE),
++              REG_READ(pipeA ? DSPASIZE : DSPBSIZE),
++              REG_READ(pipeA ? DSPAPOS : DSPBPOS),
++              REG_READ(pipeA ? DSPABASE : DSPBBASE)
++              );
++
++        DRM_DEBUG("saved: (%x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x, %x)\n",
++                        crtc_state->saveDSPCNTR,
++                        crtc_state->savePIPECONF,
++                        crtc_state->savePIPESRC,
++                        crtc_state->saveFP0,
++                        crtc_state->saveFP1,
++                        crtc_state->saveDPLL,
++                        crtc_state->saveHTOTAL,
++                        crtc_state->saveHBLANK,
++                        crtc_state->saveHSYNC,
++                        crtc_state->saveVTOTAL,
++                        crtc_state->saveVBLANK,
++                        crtc_state->saveVSYNC,
++                        crtc_state->saveDSPSTRIDE,
++                        crtc_state->saveDSPSIZE,
++                        crtc_state->saveDSPPOS,
++                        crtc_state->saveDSPBASE
++                );
++
++
++#if 0
++      if(drm_helper_crtc_in_use(crtc))
++              crtc_funcs->dpms(crtc, DRM_MODE_DPMS_OFF);
++      
++
++      if(psb_intel_panel_fitter_pipe(dev) == psb_intel_crtc->pipe) {
++              REG_WRITE(PFIT_CONTROL, crtc_state->savePFITCTRL);
++              DRM_DEBUG("write pfit_controle: %x\n", REG_READ(PFIT_CONTROL));
++      }               
++#endif
++
++      if(crtc_state->saveDPLL & DPLL_VCO_ENABLE) {
++              REG_WRITE(pipeA ? DPLL_A : DPLL_B,
++                      crtc_state->saveDPLL & ~DPLL_VCO_ENABLE);
++              REG_READ(pipeA ? DPLL_A : DPLL_B);
++              DRM_DEBUG("write dpll: %x\n", REG_READ(pipeA ? DPLL_A : DPLL_B));
++              udelay(150);
++      }
++
++      REG_WRITE(pipeA ? FPA0 : FPB0, crtc_state->saveFP0);
++      REG_READ(pipeA ? FPA0 : FPB0);
++
++      REG_WRITE(pipeA ? FPA1 : FPB1, crtc_state->saveFP1);
++      REG_READ(pipeA ? FPA1 : FPB1);
++
++      REG_WRITE(pipeA ? DPLL_A : DPLL_B, crtc_state->saveDPLL);
++      REG_READ(pipeA ? DPLL_A : DPLL_B);
++      udelay(150);
++
++      REG_WRITE(pipeA ? HTOTAL_A : HTOTAL_B, crtc_state->saveHTOTAL);
++      REG_WRITE(pipeA ? HBLANK_A : HBLANK_B, crtc_state->saveHBLANK);
++      REG_WRITE(pipeA ? HSYNC_A : HSYNC_B, crtc_state->saveHSYNC);
++      REG_WRITE(pipeA ? VTOTAL_A : VTOTAL_B, crtc_state->saveVTOTAL);
++      REG_WRITE(pipeA ? VBLANK_A : VBLANK_B, crtc_state->saveVBLANK);
++      REG_WRITE(pipeA ? VSYNC_A : VSYNC_B, crtc_state->saveVSYNC);
++      REG_WRITE(pipeA ? DSPASTRIDE : DSPBSTRIDE, crtc_state->saveDSPSTRIDE);
++      
++      REG_WRITE(pipeA ? DSPASIZE : DSPBSIZE, crtc_state->saveDSPSIZE);
++      REG_WRITE(pipeA ? DSPAPOS : DSPBPOS, crtc_state->saveDSPPOS);
++      
++      REG_WRITE(pipeA ? PIPEASRC :PIPEBSRC, crtc_state->savePIPESRC);
++      REG_WRITE(pipeA ? DSPABASE : DSPBBASE, crtc_state->saveDSPBASE);
++      REG_WRITE(pipeA ? PIPEACONF : PIPEBCONF, crtc_state->savePIPECONF);
++
++      psb_intel_wait_for_vblank(dev);
++
++      REG_WRITE(pipeA ? DSPACNTR : DSPBCNTR, crtc_state->saveDSPCNTR);
++      REG_WRITE(pipeA ? DSPABASE : DSPBBASE, crtc_state->saveDSPBASE);
++
++      psb_intel_wait_for_vblank(dev);
++
++      paletteReg = pipeA ? PALETTE_A : PALETTE_B;
++      for(i=0; i<256; ++i) {
++              REG_WRITE(paletteReg + (i << 2), crtc_state->savePalette[i]);
++      }
++}
++#endif
++
++static int psb_intel_crtc_cursor_set(struct drm_crtc *crtc,
++                               struct drm_file *file_priv,
++                               uint32_t handle,
++                               uint32_t width, uint32_t height)
++{
++      struct drm_device *dev = crtc->dev;
++      struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;
++      struct psb_gtt * pg = dev_priv->pg;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      struct psb_intel_mode_device *mode_dev = psb_intel_crtc->mode_dev;
++      int pipe = psb_intel_crtc->pipe;
++      uint32_t control = (pipe == 0) ? CURACNTR : CURBCNTR;
++      uint32_t base = (pipe == 0) ? CURABASE : CURBBASE;
++      uint32_t temp;
++      size_t addr = 0;
++      size_t size;
++      void *bo;
++      int ret;
++
++      DRM_DEBUG("\n");
++
++      /* if we want to turn of the cursor ignore width and height */
++      if (!handle) {
++              DRM_DEBUG("cursor off\n");
++              /* turn of the cursor */
++              temp = 0;
++              temp |= CURSOR_MODE_DISABLE;
++
++              if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++                      REG_WRITE(control, temp);
++                      REG_WRITE(base, 0);
++                      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++              }
++
++              /* unpin the old bo */
++              if (psb_intel_crtc->cursor_bo) {
++                      mode_dev->bo_unpin_for_scanout(dev,
++                                                     psb_intel_crtc->
++                                                     cursor_bo);
++                      psb_intel_crtc->cursor_bo = NULL;
++              }
++
++              return 0;
++      }
++
++      /* Currently we only support 64x64 cursors */
++      if (width != 64 || height != 64) {
++              DRM_ERROR("we currently only support 64x64 cursors\n");
++              return -EINVAL;
++      }
++
++      bo = mode_dev->bo_from_handle(dev, file_priv, handle);
++      if (!bo)
++              return -ENOENT;
++      ret = mode_dev->bo_pin_for_scanout(dev, bo);
++      if (ret)
++              return ret;
++      size = mode_dev->bo_size(dev, bo);
++      if (size < width * height * 4) {
++              DRM_ERROR("buffer is to small\n");
++              return -ENOMEM;
++      }
++      addr = mode_dev->bo_offset(dev, bo);
++      if(IS_POULSBO(dev)) {
++              addr += pg->stolen_base;
++      }
++
++      psb_intel_crtc->cursor_addr = addr;
++
++      temp = 0;
++      /* set the pipe for the cursor */
++      temp |= (pipe << 28);
++      temp |= CURSOR_MODE_64_ARGB_AX | MCURSOR_GAMMA_ENABLE;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              REG_WRITE(control, temp);
++              REG_WRITE(base, addr);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++
++      /* unpin the old bo */
++      if (psb_intel_crtc->cursor_bo && psb_intel_crtc->cursor_bo != bo) {
++              mode_dev->bo_unpin_for_scanout(dev, psb_intel_crtc->cursor_bo);
++              psb_intel_crtc->cursor_bo = bo;
++      }
++
++      return 0;
++}
++
++static int psb_intel_crtc_cursor_move(struct drm_crtc *crtc, int x, int y)
++{
++      struct drm_device *dev = crtc->dev;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      int pipe = psb_intel_crtc->pipe;
++      uint32_t temp = 0;
++      uint32_t adder;
++
++      if (x < 0) {
++              temp |= (CURSOR_POS_SIGN << CURSOR_X_SHIFT);
++              x = -x;
++      }
++      if (y < 0) {
++              temp |= (CURSOR_POS_SIGN << CURSOR_Y_SHIFT);
++              y = -y;
++      }
++
++      temp |= ((x & CURSOR_POS_MASK) << CURSOR_X_SHIFT);
++      temp |= ((y & CURSOR_POS_MASK) << CURSOR_Y_SHIFT);
++
++      adder = psb_intel_crtc->cursor_addr;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              REG_WRITE((pipe == 0) ? CURAPOS : CURBPOS, temp);
++              REG_WRITE((pipe == 0) ? CURABASE : CURBBASE, adder);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++      return 0;
++}
++
++static void psb_intel_crtc_gamma_set(struct drm_crtc *crtc, u16 *red,
++                               u16 *green, u16 *blue, uint32_t size)
++{
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      int i;
++
++      if (size != 256)
++              return;
++
++      for (i = 0; i < 256; i++) {
++              psb_intel_crtc->lut_r[i] = red[i] >> 8;
++              psb_intel_crtc->lut_g[i] = green[i] >> 8;
++              psb_intel_crtc->lut_b[i] = blue[i] >> 8;
++      }
++
++      psb_intel_crtc_load_lut(crtc);
++}
++
++/* Returns the clock of the currently programmed mode of the given pipe. */
++static int psb_intel_crtc_clock_get(struct drm_device *dev,
++                              struct drm_crtc *crtc)
++{
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      int pipe = psb_intel_crtc->pipe;
++      u32 dpll;
++      u32 fp;
++      struct psb_intel_clock_t clock;
++      bool is_lvds;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              dpll = REG_READ((pipe == 0) ? DPLL_A : DPLL_B);
++              if ((dpll & DISPLAY_RATE_SELECT_FPA1) == 0)
++                      fp = REG_READ((pipe == 0) ? FPA0 : FPB0);
++              else
++                      fp = REG_READ((pipe == 0) ? FPA1 : FPB1);
++              is_lvds = (pipe == 1) && (REG_READ(LVDS) & LVDS_PORT_EN);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else {
++              dpll = (pipe == 0) ? dev_priv->saveDPLL_A : dev_priv->saveDPLL_B;
++              if ((dpll & DISPLAY_RATE_SELECT_FPA1) == 0)
++                      fp = (pipe == 0) ? dev_priv->saveFPA0 : dev_priv->saveFPB0;
++              else
++                      fp = (pipe == 0) ? dev_priv->saveFPA1 : dev_priv->saveFPB1;
++              is_lvds = (pipe == 1) && (dev_priv->saveLVDS & LVDS_PORT_EN);   
++      }
++
++      clock.m1 = (fp & FP_M1_DIV_MASK) >> FP_M1_DIV_SHIFT;
++      clock.m2 = (fp & FP_M2_DIV_MASK) >> FP_M2_DIV_SHIFT;
++      clock.n = (fp & FP_N_DIV_MASK) >> FP_N_DIV_SHIFT;
++
++      if (is_lvds) {
++              clock.p1 =
++                  ffs((dpll &
++                       DPLL_FPA01_P1_POST_DIV_MASK_I830_LVDS) >>
++                      DPLL_FPA01_P1_POST_DIV_SHIFT);
++              clock.p2 = 14;
++
++              if ((dpll & PLL_REF_INPUT_MASK) ==
++                  PLLB_REF_INPUT_SPREADSPECTRUMIN) {
++                      /* XXX: might not be 66MHz */
++                      i8xx_clock(66000, &clock);
++              } else
++                      i8xx_clock(48000, &clock);
++      } else {
++              if (dpll & PLL_P1_DIVIDE_BY_TWO)
++                      clock.p1 = 2;
++              else {
++                      clock.p1 =
++                          ((dpll &
++                            DPLL_FPA01_P1_POST_DIV_MASK_I830) >>
++                           DPLL_FPA01_P1_POST_DIV_SHIFT) + 2;
++              }
++              if (dpll & PLL_P2_DIVIDE_BY_4)
++                      clock.p2 = 4;
++              else
++                      clock.p2 = 2;
++
++              i8xx_clock(48000, &clock);
++      }
++
++      /* XXX: It would be nice to validate the clocks, but we can't reuse
++       * i830PllIsValid() because it relies on the xf86_config connector
++       * configuration being accurate, which it isn't necessarily.
++       */
++
++      return clock.dot;
++}
++
++/** Returns the currently programmed mode of the given pipe. */
++struct drm_display_mode *psb_intel_crtc_mode_get(struct drm_device *dev,
++                                           struct drm_crtc *crtc)
++{
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      int pipe = psb_intel_crtc->pipe;
++      struct drm_display_mode *mode;
++      int htot;
++      int hsync;
++      int vtot;
++      int vsync;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              htot = REG_READ((pipe == 0) ? HTOTAL_A : HTOTAL_B);
++              hsync = REG_READ((pipe == 0) ? HSYNC_A : HSYNC_B);
++              vtot = REG_READ((pipe == 0) ? VTOTAL_A : VTOTAL_B);
++              vsync = REG_READ((pipe == 0) ? VSYNC_A : VSYNC_B);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else {
++              htot = (pipe == 0) ? dev_priv->saveHTOTAL_A : dev_priv->saveHTOTAL_B;
++              hsync = (pipe == 0) ? dev_priv->saveHSYNC_A : dev_priv->saveHSYNC_B;
++              vtot = (pipe == 0) ? dev_priv->saveVTOTAL_A : dev_priv->saveVTOTAL_B;
++              vsync = (pipe == 0) ? dev_priv->saveVSYNC_A : dev_priv->saveVSYNC_B;    
++      }
++
++      mode = kzalloc(sizeof(*mode), GFP_KERNEL);
++      if (!mode)
++              return NULL;
++
++      mode->clock = psb_intel_crtc_clock_get(dev, crtc);
++      mode->hdisplay = (htot & 0xffff) + 1;
++      mode->htotal = ((htot & 0xffff0000) >> 16) + 1;
++      mode->hsync_start = (hsync & 0xffff) + 1;
++      mode->hsync_end = ((hsync & 0xffff0000) >> 16) + 1;
++      mode->vdisplay = (vtot & 0xffff) + 1;
++      mode->vtotal = ((vtot & 0xffff0000) >> 16) + 1;
++      mode->vsync_start = (vsync & 0xffff) + 1;
++      mode->vsync_end = ((vsync & 0xffff0000) >> 16) + 1;
++
++      drm_mode_set_name(mode);
++      drm_mode_set_crtcinfo(mode, 0);
++
++      return mode;
++}
++
++static void psb_intel_crtc_destroy(struct drm_crtc *crtc)
++{
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++
++#ifndef CONFIG_MRST
++      if(psb_intel_crtc->crtc_state)
++      kfree(psb_intel_crtc->crtc_state);
++#endif
++      drm_crtc_cleanup(crtc);
++      kfree(psb_intel_crtc);
++}
++
++static const struct drm_crtc_helper_funcs psb_intel_helper_funcs = {
++      .dpms = psb_intel_crtc_dpms,
++      .mode_fixup = psb_intel_crtc_mode_fixup,
++      .mode_set = psb_intel_crtc_mode_set,
++      .mode_set_base = psb_intel_pipe_set_base,
++      .prepare = psb_intel_crtc_prepare,
++      .commit = psb_intel_crtc_commit,
++};
++
++static const struct drm_crtc_helper_funcs mrst_helper_funcs;
++
++const struct drm_crtc_funcs psb_intel_crtc_funcs = {
++#ifndef CONFIG_MRST
++      .save = psb_intel_crtc_save,
++      .restore = psb_intel_crtc_restore,
++#endif
++      .cursor_set = psb_intel_crtc_cursor_set,
++      .cursor_move = psb_intel_crtc_cursor_move,
++      .gamma_set = psb_intel_crtc_gamma_set,
++      .set_config = drm_crtc_helper_set_config,
++      .destroy = psb_intel_crtc_destroy,
++      .set_base = psb_kms_flip_set_base,      
++};
++
++
++void psb_intel_crtc_init(struct drm_device *dev, int pipe,
++                   struct psb_intel_mode_device *mode_dev)
++{
++      struct psb_intel_crtc *psb_intel_crtc;
++      int i;
++      uint16_t *r_base, *g_base, *b_base;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter psb_intel_crtc_init \n");
++#endif                                /* PRINT_JLIU7 */
++
++      /* We allocate a extra array of drm_connector pointers
++       * for fbdev after the crtc */
++      psb_intel_crtc =
++          kzalloc(sizeof(struct psb_intel_crtc) +
++                  (INTELFB_CONN_LIMIT * sizeof(struct drm_connector *)),
++                  GFP_KERNEL);
++      if (psb_intel_crtc == NULL)
++              return;
++
++#ifndef CONFIG_MRST
++      psb_intel_crtc->crtc_state = kzalloc(sizeof(struct psb_intel_crtc_state),
++                                      GFP_KERNEL);
++      if(!psb_intel_crtc->crtc_state) {
++              DRM_INFO("Crtc state error: No memory\n");
++              kfree(psb_intel_crtc);
++              return;
++      }
++#endif
++
++      drm_crtc_init(dev, &psb_intel_crtc->base, &psb_intel_crtc_funcs);
++
++      drm_mode_crtc_set_gamma_size(&psb_intel_crtc->base, 256);
++      psb_intel_crtc->pipe = pipe;
++
++      r_base = psb_intel_crtc->base.gamma_store;
++      g_base = r_base + 256;
++      b_base = g_base + 256;
++      for (i = 0; i < 256; i++) {
++              psb_intel_crtc->lut_r[i] = i;
++              psb_intel_crtc->lut_g[i] = i;
++              psb_intel_crtc->lut_b[i] = i;
++              r_base[i] = i << 8;
++              g_base[i] = i << 8;
++              b_base[i] = i << 8;
++      }
++
++      psb_intel_crtc->mode_dev = mode_dev;
++      psb_intel_crtc->cursor_addr = 0;
++      psb_intel_crtc->dpms_mode = DRM_MODE_DPMS_OFF;
++
++      if (IS_MRST(dev)) {
++              drm_crtc_helper_add(&psb_intel_crtc->base, &mrst_helper_funcs);
++      } else {
++              drm_crtc_helper_add(&psb_intel_crtc->base,
++                                  &psb_intel_helper_funcs);
++      }
++
++      /* Setup the array of drm_connector pointer array */
++      psb_intel_crtc->mode_set.crtc = &psb_intel_crtc->base;
++      psb_intel_crtc->mode_set.connectors =
++          (struct drm_connector **) (psb_intel_crtc + 1);
++      psb_intel_crtc->mode_set.num_connectors = 0;
++
++#if 0                         /* JB: not drop, What should go in here? */
++      if (i915_fbpercrtc)
++#endif
++}
++
++struct drm_crtc *psb_intel_get_crtc_from_pipe(struct drm_device *dev, int pipe)
++{
++      struct drm_crtc *crtc = NULL;
++
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++              if (psb_intel_crtc->pipe == pipe)
++                      break;
++      }
++      return crtc;
++}
++
++int psb_intel_connector_clones(struct drm_device *dev, int type_mask)
++{
++      int index_mask = 0;
++      struct drm_connector *connector;
++      int entry = 0;
++
++      list_for_each_entry(connector, &dev->mode_config.connector_list,
++                          head) {
++              struct psb_intel_output *psb_intel_output =
++                  to_psb_intel_output(connector);
++              if (type_mask & (1 << psb_intel_output->type))
++                      index_mask |= (1 << entry);
++              entry++;
++      }
++      return index_mask;
++}
++
++#if 0                         /* JB: Should be per device */
++static void psb_intel_setup_outputs(struct drm_device *dev)
++{
++      struct drm_connector *connector;
++
++      psb_intel_crt_init(dev);
++
++      /* Set up integrated LVDS */
++      if (IS_MOBILE(dev) && !IS_I830(dev))
++              psb_intel_lvds_init(dev);
++
++      if (IS_I9XX(dev)) {
++              psb_intel_sdvo_init(dev, SDVOB);
++              psb_intel_sdvo_init(dev, SDVOC);
++      } else
++              psb_intel_dvo_init(dev);
++
++      if (IS_I9XX(dev) && !IS_I915G(dev))
++              psb_intel_tv_init(dev);
++
++      list_for_each_entry(connector, &dev->mode_config.connector_list,
++                          head) {
++              struct psb_intel_output *psb_intel_output =
++                  to_psb_intel_output(connector);
++              struct drm_encoder *encoder = &psb_intel_output->enc;
++              int crtc_mask = 0, clone_mask = 0;
++
++              /* valid crtcs */
++              switch (psb_intel_output->type) {
++              case INTEL_OUTPUT_DVO:
++              case INTEL_OUTPUT_SDVO:
++                      crtc_mask = ((1 << 0) | (1 << 1));
++                      clone_mask = ((1 << INTEL_OUTPUT_ANALOG) |
++                                    (1 << INTEL_OUTPUT_DVO) |
++                                    (1 << INTEL_OUTPUT_SDVO));
++                      break;
++              case INTEL_OUTPUT_ANALOG:
++                      crtc_mask = ((1 << 0) | (1 << 1));
++                      clone_mask = ((1 << INTEL_OUTPUT_ANALOG) |
++                                    (1 << INTEL_OUTPUT_DVO) |
++                                    (1 << INTEL_OUTPUT_SDVO));
++                      break;
++              case INTEL_OUTPUT_LVDS:
++                      crtc_mask = (1 << 1);
++                      clone_mask = (1 << INTEL_OUTPUT_LVDS);
++                      break;
++              case INTEL_OUTPUT_TVOUT:
++                      crtc_mask = ((1 << 0) | (1 << 1));
++                      clone_mask = (1 << INTEL_OUTPUT_TVOUT);
++                      break;
++              }
++              encoder->possible_crtcs = crtc_mask;
++              encoder->possible_clones =
++                  psb_intel_connector_clones(dev, clone_mask);
++      }
++}
++#endif
++
++#if 0 /* JB: Rework framebuffer code into something none device specific */
++static void psb_intel_user_framebuffer_destroy(struct drm_framebuffer *fb)
++{
++      struct psb_intel_framebuffer *psb_intel_fb = to_psb_intel_framebuffer(fb);
++      struct drm_device *dev = fb->dev;
++
++      if (fb->fbdev)
++              intelfb_remove(dev, fb);
++
++      drm_framebuffer_cleanup(fb);
++      drm_gem_object_unreference(fb->mm_private);
++
++      kfree(psb_intel_fb);
++}
++
++static int psb_intel_user_framebuffer_create_handle(struct drm_framebuffer *fb,
++                                              struct drm_file *file_priv,
++                                              unsigned int *handle)
++{
++      struct drm_gem_object *object = fb->mm_private;
++
++      return drm_gem_handle_create(file_priv, object, handle);
++}
++
++static const struct drm_framebuffer_funcs psb_intel_fb_funcs = {
++      .destroy = psb_intel_user_framebuffer_destroy,
++      .create_handle = psb_intel_user_framebuffer_create_handle,
++};
++
++struct drm_framebuffer *psb_intel_framebuffer_create(struct drm_device *dev,
++                                               struct drm_mode_fb_cmd
++                                               *mode_cmd,
++                                               void *mm_private)
++{
++      struct psb_intel_framebuffer *psb_intel_fb;
++
++      psb_intel_fb = kzalloc(sizeof(*psb_intel_fb), GFP_KERNEL);
++      if (!psb_intel_fb)
++              return NULL;
++
++      if (!drm_framebuffer_init(dev, &psb_intel_fb->base, &psb_intel_fb_funcs))
++              return NULL;
++
++      drm_helper_mode_fill_fb_struct(&psb_intel_fb->base, mode_cmd);
++
++      return &psb_intel_fb->base;
++}
++
++
++static struct drm_framebuffer *psb_intel_user_framebuffer_create(struct
++                                                           drm_device
++                                                           *dev,
++                                                           struct
++                                                           drm_file
++                                                           *filp,
++                                                           struct
++                                                           drm_mode_fb_cmd
++                                                           *mode_cmd)
++{
++      struct drm_gem_object *obj;
++
++      obj = drm_gem_object_lookup(dev, filp, mode_cmd->handle);
++      if (!obj)
++              return NULL;
++
++      return psb_intel_framebuffer_create(dev, mode_cmd, obj);
++}
++
++static int psb_intel_insert_new_fb(struct drm_device *dev,
++                             struct drm_file *file_priv,
++                             struct drm_framebuffer *fb,
++                             struct drm_mode_fb_cmd *mode_cmd)
++{
++      struct psb_intel_framebuffer *psb_intel_fb;
++      struct drm_gem_object *obj;
++      struct drm_crtc *crtc;
++
++      psb_intel_fb = to_psb_intel_framebuffer(fb);
++
++      mutex_lock(&dev->struct_mutex);
++      obj = drm_gem_object_lookup(dev, file_priv, mode_cmd->handle);
++
++      if (!obj) {
++              mutex_unlock(&dev->struct_mutex);
++              return -EINVAL;
++      }
++      drm_gem_object_unreference(psb_intel_fb->base.mm_private);
++      drm_helper_mode_fill_fb_struct(fb, mode_cmd, obj);
++      mutex_unlock(&dev->struct_mutex);
++
++      list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++              if (crtc->fb == fb) {
++                      struct drm_crtc_helper_funcs *crtc_funcs =
++                          crtc->helper_private;
++                      crtc_funcs->mode_set_base(crtc, crtc->x, crtc->y);
++              }
++      }
++      return 0;
++}
++
++static const struct drm_mode_config_funcs psb_intel_mode_funcs = {
++      .resize_fb = psb_intel_insert_new_fb,
++      .fb_create = psb_intel_user_framebuffer_create,
++      .fb_changed = intelfb_probe,
++};
++#endif
++
++#if 0                         /* Should be per device */
++void psb_intel_modeset_init(struct drm_device *dev)
++{
++      int num_pipe;
++      int i;
++
++      drm_mode_config_init(dev);
++
++      dev->mode_config.min_width = 0;
++      dev->mode_config.min_height = 0;
++
++      dev->mode_config.funcs = (void *) &psb_intel_mode_funcs;
++
++      if (IS_I965G(dev)) {
++              dev->mode_config.max_width = 8192;
++              dev->mode_config.max_height = 8192;
++      } else {
++              dev->mode_config.max_width = 2048;
++              dev->mode_config.max_height = 2048;
++      }
++
++      /* set memory base */
++      /* MRST and PSB should use BAR 2*/
++      dev->mode_config.fb_base =
++          pci_resource_start(dev->pdev, 2);
++
++      if (IS_MOBILE(dev) || IS_I9XX(dev))
++              num_pipe = 2;
++      else
++              num_pipe = 1;
++      DRM_DEBUG("%d display pipe%s available.\n",
++                num_pipe, num_pipe > 1 ? "s" : "");
++
++      for (i = 0; i < num_pipe; i++)
++              psb_intel_crtc_init(dev, i);
++
++      psb_intel_setup_outputs(dev);
++
++      /* setup fbs */
++      /* drm_initial_config(dev); */
++}
++#endif
++
++void psb_intel_modeset_cleanup(struct drm_device *dev)
++{
++      drm_mode_config_cleanup(dev);
++}
++
++
++/* current intel driver doesn't take advantage of encoders
++   always give back the encoder for the connector
++*/
++struct drm_encoder *psb_intel_best_encoder(struct drm_connector *connector)
++{
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++
++      return &psb_intel_output->enc;
++}
++
++/* MRST_PLATFORM start */
++
++#if DUMP_REGISTER
++void dump_dc_registers(struct drm_device *dev)
++{
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++      unsigned int i = 0;
++
++      DRM_INFO("jliu7 dump_dc_registers\n");
++
++
++      if (0x80000000 & REG_READ(0x70008)) {
++              for (i = 0x20a0; i < 0x20af; i += 4) {
++                      DRM_INFO("jliu7 interrupt register=0x%x, value=%x\n", i,                 (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0xf014; i < 0xf047; i += 4) {
++                      DRM_INFO
++                          ("jliu7 pipe A dpll register=0x%x, value=%x\n",
++                           i, (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x60000; i < 0x6005f; i += 4) {
++                      DRM_INFO
++                          ("jliu7 pipe A timing register=0x%x, value=%x\n",
++                           i, (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x61140; i < 0x61143; i += 4) {
++                      DRM_INFO("jliu7 SDBOB register=0x%x, value=%x\n",
++                               i, (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x61180; i < 0x6123F; i += 4) {
++                      DRM_INFO
++                          ("jliu7 LVDS PORT register=0x%x, value=%x\n",
++                           i, (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x61254; i < 0x612AB; i += 4) {
++                      DRM_INFO("jliu7 BLC register=0x%x, value=%x\n",
++                               i, (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x70000; i < 0x70047; i += 4) {
++                      DRM_INFO
++                          ("jliu7 PIPE A control register=0x%x, value=%x\n",
++                           i, (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x70180; i < 0x7020b; i += 4) {
++                      DRM_INFO("jliu7 display A control register=0x%x,"
++                               "value=%x\n", i,
++                               (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x71400; i < 0x71403; i += 4) {
++                      DRM_INFO
++                          ("jliu7 VGA Display Plane Control register=0x%x,"
++                           "value=%x\n", i, (unsigned int) REG_READ(i));
++              }
++      }
++
++      if (0x80000000 & REG_READ(0x71008)) {
++              for (i = 0x61000; i < 0x6105f; i += 4) {
++                      DRM_INFO
++                          ("jliu7 pipe B timing register=0x%x, value=%x\n",
++                           i, (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x71000; i < 0x71047; i += 4) {
++                      DRM_INFO
++                          ("jliu7 PIPE B control register=0x%x, value=%x\n",
++                           i, (unsigned int) REG_READ(i));
++              }
++
++              for (i = 0x71180; i < 0x7120b; i += 4) {
++                      DRM_INFO("jliu7 display B control register=0x%x,"
++                               "value=%x\n", i,
++                               (unsigned int) REG_READ(i));
++              }
++      }
++#if 0
++      for (i = 0x70080; i < 0x700df; i += 4) {
++              DRM_INFO("jliu7 cursor A & B register=0x%x, value=%x\n",
++                       i, (unsigned int) REG_READ(i));
++      }
++#endif
++
++}
++
++void dump_dsi_registers(struct drm_device *dev)
++{
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++      unsigned int i = 0;
++
++      DRM_INFO("jliu7 dump_dsi_registers\n");
++
++      for (i = 0xb000; i < 0xb064; i += 4) {
++              DRM_INFO("jliu7 MIPI IP register=0x%x, value=%x\n", i,
++                       (unsigned int) REG_READ(i));
++      }
++
++      i = 0xb104;
++      DRM_INFO("jliu7 MIPI control register=0x%x, value=%x\n",
++               i, (unsigned int) REG_READ(i));
++}
++#endif                                /* DUMP_REGISTER */
++
++
++struct mrst_limit_t {
++      struct psb_intel_range_t dot, m, p1;
++};
++
++struct mrst_clock_t {
++      /* derived values */
++      int dot;
++      int m;
++      int p1;
++};
++
++#define MRST_LIMIT_LVDS_100L      0
++#define MRST_LIMIT_LVDS_83        1
++#define MRST_LIMIT_LVDS_100       2
++
++#define MRST_DOT_MIN            19750
++#define MRST_DOT_MAX            120000
++#define MRST_M_MIN_100L                   20
++#define MRST_M_MIN_100                    10
++#define MRST_M_MIN_83             12
++#define MRST_M_MAX_100L                   34
++#define MRST_M_MAX_100                    17
++#define MRST_M_MAX_83             20
++#define MRST_P1_MIN               2
++#define MRST_P1_MAX_0             7
++#define MRST_P1_MAX_1             8
++
++static const struct mrst_limit_t mrst_limits[] = {
++      {                       /* MRST_LIMIT_LVDS_100L */
++       .dot = {.min = MRST_DOT_MIN, .max = MRST_DOT_MAX},
++       .m = {.min = MRST_M_MIN_100L, .max = MRST_M_MAX_100L},
++       .p1 = {.min = MRST_P1_MIN, .max = MRST_P1_MAX_1},
++       },
++      {                       /* MRST_LIMIT_LVDS_83L */
++       .dot = {.min = MRST_DOT_MIN, .max = MRST_DOT_MAX},
++       .m = {.min = MRST_M_MIN_83, .max = MRST_M_MAX_83},
++       .p1 = {.min = MRST_P1_MIN, .max = MRST_P1_MAX_0},
++       },
++      {                       /* MRST_LIMIT_LVDS_100 */
++       .dot = {.min = MRST_DOT_MIN, .max = MRST_DOT_MAX},
++       .m = {.min = MRST_M_MIN_100, .max = MRST_M_MAX_100},
++       .p1 = {.min = MRST_P1_MIN, .max = MRST_P1_MAX_1},
++       },
++};
++
++#define MRST_M_MIN        10
++static const u32 mrst_m_converts[] = {
++      0x2B, 0x15, 0x2A, 0x35, 0x1A, 0x0D, 0x26, 0x33, 0x19, 0x2C,
++      0x36, 0x3B, 0x1D, 0x2E, 0x37, 0x1B, 0x2D, 0x16, 0x0B, 0x25,
++      0x12, 0x09, 0x24, 0x32, 0x39, 0x1c,
++};
++
++#define COUNT_MAX 0x10000000
++void mrstWaitForPipeDisable(struct drm_device *dev)
++{
++      int count, temp;
++
++      /* FIXME JLIU7_PO */
++      psb_intel_wait_for_vblank(dev);
++      return;
++
++      /* Wait for for the pipe disable to take effect. */
++      for (count = 0; count < COUNT_MAX; count++) {
++              temp = REG_READ(PIPEACONF);
++              if ((temp & PIPEACONF_PIPE_STATE) == 0)
++                      break;
++      }
++
++      if (count == COUNT_MAX) {
++#if PRINT_JLIU7
++              DRM_INFO("JLIU7 mrstWaitForPipeDisable time out. \n");
++#endif                                /* PRINT_JLIU7 */
++      } else {
++#if PRINT_JLIU7
++              DRM_INFO("JLIU7 mrstWaitForPipeDisable cout = %d. \n",
++                       count);
++#endif                                /* PRINT_JLIU7 */
++      }
++}
++
++void mrstWaitForPipeEnable(struct drm_device *dev)
++{
++      int count, temp;
++
++      /* FIXME JLIU7_PO */
++      psb_intel_wait_for_vblank(dev);
++      return;
++
++      /* Wait for for the pipe disable to take effect. */
++      for (count = 0; count < COUNT_MAX; count++) {
++              temp = REG_READ(PIPEACONF);
++              if ((temp & PIPEACONF_PIPE_STATE) == 1)
++                      break;
++      }
++
++      if (count == COUNT_MAX) {
++#if PRINT_JLIU7
++              DRM_INFO("JLIU7 mrstWaitForPipeEnable time out. \n");
++#endif                                /* PRINT_JLIU7 */
++      } else {
++#if PRINT_JLIU7
++              DRM_INFO("JLIU7 mrstWaitForPipeEnable cout = %d. \n",
++                       count);
++#endif                                /* PRINT_JLIU7 */
++      }
++}
++
++static const struct mrst_limit_t *mrst_limit(struct drm_crtc *crtc)
++{
++      const struct mrst_limit_t *limit;
++      struct drm_device *dev = crtc->dev;
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++
++      if (psb_intel_pipe_has_type(crtc, INTEL_OUTPUT_LVDS)
++          || psb_intel_pipe_has_type(crtc, INTEL_OUTPUT_MIPI)) {
++              if (dev_priv->sku_100L)
++                      limit = &mrst_limits[MRST_LIMIT_LVDS_100L];
++              if (dev_priv->sku_83)
++                      limit = &mrst_limits[MRST_LIMIT_LVDS_83];
++              if (dev_priv->sku_100)
++                      limit = &mrst_limits[MRST_LIMIT_LVDS_100];
++      } else {
++              limit = NULL;
++#if PRINT_JLIU7
++              DRM_INFO("JLIU7 jliu7 mrst_limit Wrong display type. \n");
++#endif                                /* PRINT_JLIU7 */
++      }
++
++      return limit;
++}
++
++/** Derive the pixel clock for the given refclk and divisors for 8xx chips. */
++static void mrst_clock(int refclk, struct mrst_clock_t *clock)
++{
++      clock->dot = (refclk * clock->m) / (14 * clock->p1);
++}
++
++void mrstPrintPll(char *prefix, struct mrst_clock_t *clock)
++{
++#if PRINT_JLIU7
++      DRM_INFO
++          ("JLIU7 mrstPrintPll %s: dotclock = %d,  m = %d, p1 = %d. \n",
++           prefix, clock->dot, clock->m, clock->p1);
++#endif                                /* PRINT_JLIU7 */
++}
++
++/**
++ * Returns a set of divisors for the desired target clock with the given refclk,
++ * or FALSE.  Divisor values are the actual divisors for
++ */
++static bool
++mrstFindBestPLL(struct drm_crtc *crtc, int target, int refclk,
++              struct mrst_clock_t *best_clock)
++{
++      struct mrst_clock_t clock;
++      const struct mrst_limit_t *limit = mrst_limit(crtc);
++      int err = target;
++
++      memset(best_clock, 0, sizeof(*best_clock));
++
++      for (clock.m = limit->m.min; clock.m <= limit->m.max; clock.m++) {
++              for (clock.p1 = limit->p1.min; clock.p1 <= limit->p1.max;
++                   clock.p1++) {
++                      int this_err;
++
++                      mrst_clock(refclk, &clock);
++
++                      this_err = abs(clock.dot - target);
++                      if (this_err < err) {
++                              *best_clock = clock;
++                              err = this_err;
++                      }
++              }
++      }
++      DRM_DEBUG("mrstFindBestPLL err = %d.\n", err);
++
++      return err != target;
++}
++
++/**
++ * Sets the power management mode of the pipe and plane.
++ *
++ * This code should probably grow support for turning the cursor off and back
++ * on appropriately at the same time as we're turning the pipe off/on.
++ */
++static void mrst_crtc_dpms(struct drm_crtc *crtc, int mode)
++{
++      struct drm_device *dev = crtc->dev;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      int pipe = psb_intel_crtc->pipe;
++      int dpll_reg = (pipe == 0) ? MRST_DPLL_A : DPLL_B;
++      int dspcntr_reg = (pipe == 0) ? DSPACNTR : DSPBCNTR;
++      int dspbase_reg = (pipe == 0) ? MRST_DSPABASE : DSPBBASE;
++      int pipeconf_reg = (pipe == 0) ? PIPEACONF : PIPEBCONF;
++      u32 temp;
++      bool enabled;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter mrst_crtc_dpms, mode = %d, pipe = %d \n",
++               mode, pipe);
++#endif                                /* PRINT_JLIU7 */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      /* XXX: When our outputs are all unaware of DPMS modes other than off
++       * and on, we should map those modes to DRM_MODE_DPMS_OFF in the CRTC.
++       */
++      switch (mode) {
++      case DRM_MODE_DPMS_ON:
++      case DRM_MODE_DPMS_STANDBY:
++      case DRM_MODE_DPMS_SUSPEND:
++              /* Enable the DPLL */
++              temp = REG_READ(dpll_reg);
++              if ((temp & DPLL_VCO_ENABLE) == 0) {
++                      REG_WRITE(dpll_reg, temp);
++                      REG_READ(dpll_reg);
++                      /* Wait for the clocks to stabilize. */
++                      udelay(150);
++                      REG_WRITE(dpll_reg, temp | DPLL_VCO_ENABLE);
++                      REG_READ(dpll_reg);
++                      /* Wait for the clocks to stabilize. */
++                      udelay(150);
++                      REG_WRITE(dpll_reg, temp | DPLL_VCO_ENABLE);
++                      REG_READ(dpll_reg);
++                      /* Wait for the clocks to stabilize. */
++                      udelay(150);
++              }
++
++              /* Enable the pipe */
++              temp = REG_READ(pipeconf_reg);
++              if ((temp & PIPEACONF_ENABLE) == 0)
++                      REG_WRITE(pipeconf_reg, temp | PIPEACONF_ENABLE);
++
++              /* Enable the plane */
++              temp = REG_READ(dspcntr_reg);
++              if ((temp & DISPLAY_PLANE_ENABLE) == 0) {
++                      REG_WRITE(dspcntr_reg,
++                                temp | DISPLAY_PLANE_ENABLE);
++                      /* Flush the plane changes */
++                      REG_WRITE(dspbase_reg, REG_READ(dspbase_reg));
++              }
++
++              psb_intel_crtc_load_lut(crtc);
++
++              /* Give the overlay scaler a chance to enable
++                 if it's on this pipe */
++              /* psb_intel_crtc_dpms_video(crtc, true); TODO */
++              break;
++      case DRM_MODE_DPMS_OFF:
++              /* Give the overlay scaler a chance to disable
++               * if it's on this pipe */
++              /* psb_intel_crtc_dpms_video(crtc, FALSE); TODO */
++
++              /* Disable the VGA plane that we never use */
++              REG_WRITE(VGACNTRL, VGA_DISP_DISABLE);
++
++              /* Disable display plane */
++              temp = REG_READ(dspcntr_reg);
++              if ((temp & DISPLAY_PLANE_ENABLE) != 0) {
++                      REG_WRITE(dspcntr_reg,
++                                temp & ~DISPLAY_PLANE_ENABLE);
++                      /* Flush the plane changes */
++                      REG_WRITE(dspbase_reg, REG_READ(dspbase_reg));
++                      REG_READ(dspbase_reg);
++              }
++
++              if (!IS_I9XX(dev)) {
++                      /* Wait for vblank for the disable to take effect */
++                      psb_intel_wait_for_vblank(dev);
++              }
++
++              /* Next, disable display pipes */
++              temp = REG_READ(pipeconf_reg);
++              if ((temp & PIPEACONF_ENABLE) != 0) {
++                      REG_WRITE(pipeconf_reg, temp & ~PIPEACONF_ENABLE);
++                      REG_READ(pipeconf_reg);
++              }
++
++              /* Wait for for the pipe disable to take effect. */
++              mrstWaitForPipeDisable(dev);
++
++              temp = REG_READ(dpll_reg);
++              if ((temp & DPLL_VCO_ENABLE) != 0) {
++                      REG_WRITE(dpll_reg, temp & ~DPLL_VCO_ENABLE);
++                      REG_READ(dpll_reg);
++              }
++
++              /* Wait for the clocks to turn off. */
++              udelay(150);
++              break;
++      }
++
++#if DUMP_REGISTER
++      dump_dc_registers(dev);
++#endif                                /* DUMP_REGISTER */
++
++      enabled = crtc->enabled && mode != DRM_MODE_DPMS_OFF;
++
++#if 0                         /* JB: Add vblank support later */
++      if (enabled)
++              dev_priv->vblank_pipe |= (1 << pipe);
++      else
++              dev_priv->vblank_pipe &= ~(1 << pipe);
++#endif
++
++      psb_intel_crtc->dpms_mode = mode;
++
++#if 0                         /* JB: Add sarea support later */
++      if (!dev->primary->master)
++              return;
++
++      master_priv = dev->primary->master->driver_priv;
++      if (!master_priv->sarea_priv)
++              return;
++
++      switch (pipe) {
++      case 0:
++              master_priv->sarea_priv->planeA_w =
++                  enabled ? crtc->mode.hdisplay : 0;
++              master_priv->sarea_priv->planeA_h =
++                  enabled ? crtc->mode.vdisplay : 0;
++              break;
++      case 1:
++              master_priv->sarea_priv->planeB_w =
++                  enabled ? crtc->mode.hdisplay : 0;
++              master_priv->sarea_priv->planeB_h =
++                  enabled ? crtc->mode.vdisplay : 0;
++              break;
++      default:
++              DRM_ERROR("Can't update pipe %d in SAREA\n", pipe);
++              break;
++      }
++#endif
++
++      /*Set FIFO Watermarks*/
++      REG_WRITE(DSPARB, 0x3FFF);
++      REG_WRITE(DSPFW1, 0x3F88080A);
++      REG_WRITE(DSPFW2, 0x0b060808);
++      REG_WRITE(DSPFW3, 0x0);
++      REG_WRITE(DSPFW4, 0x08030404);
++      REG_WRITE(DSPFW5, 0x04040404);
++      REG_WRITE(DSPFW6, 0x78);
++      REG_WRITE(0x70400, REG_READ(0x70400) | 0x4000);
++      /* Must write Bit 14 of the Chicken Bit Register */
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++static int mrst_crtc_mode_set(struct drm_crtc *crtc,
++                            struct drm_display_mode *mode,
++                            struct drm_display_mode *adjusted_mode,
++                            int x, int y,
++                            struct drm_framebuffer *old_fb)
++{
++      struct drm_device *dev = crtc->dev;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++      int pipe = psb_intel_crtc->pipe;
++      int fp_reg = (pipe == 0) ? MRST_FPA0 : FPB0;
++      int dpll_reg = (pipe == 0) ? MRST_DPLL_A : DPLL_B;
++      int dspcntr_reg = (pipe == 0) ? DSPACNTR : DSPBCNTR;
++      int pipeconf_reg = (pipe == 0) ? PIPEACONF : PIPEBCONF;
++      int htot_reg = (pipe == 0) ? HTOTAL_A : HTOTAL_B;
++      int hblank_reg = (pipe == 0) ? HBLANK_A : HBLANK_B;
++      int hsync_reg = (pipe == 0) ? HSYNC_A : HSYNC_B;
++      int vtot_reg = (pipe == 0) ? VTOTAL_A : VTOTAL_B;
++      int vblank_reg = (pipe == 0) ? VBLANK_A : VBLANK_B;
++      int vsync_reg = (pipe == 0) ? VSYNC_A : VSYNC_B;
++      int pipesrc_reg = (pipe == 0) ? PIPEASRC : PIPEBSRC;
++      int refclk = 0;
++      struct mrst_clock_t clock;
++      u32 dpll = 0, fp = 0, dspcntr, pipeconf, lvdsport;
++      bool ok, is_sdvo = false;
++      bool is_crt = false, is_lvds = false, is_tv = false;
++      bool is_mipi = false;
++      struct drm_mode_config *mode_config = &dev->mode_config;
++      struct psb_intel_output *psb_intel_output = NULL;
++      uint64_t scalingType = DRM_MODE_SCALE_FULLSCREEN;
++      struct drm_encoder *encoder;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter mrst_crtc_mode_set \n");
++#endif                                /* PRINT_JLIU7 */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      memcpy(&psb_intel_crtc->saved_mode, mode, sizeof(struct drm_display_mode));
++      memcpy(&psb_intel_crtc->saved_adjusted_mode, adjusted_mode, sizeof(struct drm_display_mode));
++
++      list_for_each_entry(encoder, &mode_config->encoder_list, head) {
++
++              if (encoder->crtc != crtc)
++                      continue;
++
++              psb_intel_output = enc_to_psb_intel_output(encoder);
++              switch (psb_intel_output->type) {
++              case INTEL_OUTPUT_LVDS:
++                      is_lvds = true;
++                      break;
++              case INTEL_OUTPUT_SDVO:
++                      is_sdvo = true;
++                      break;
++              case INTEL_OUTPUT_TVOUT:
++                      is_tv = true;
++                      break;
++              case INTEL_OUTPUT_ANALOG:
++                      is_crt = true;
++                      break;
++              case INTEL_OUTPUT_MIPI:
++                      is_mipi = true;
++                      break;
++              }
++      }
++
++      if (is_lvds | is_mipi) {
++              /*FIXME JLIU7 Get panel power delay parameters from
++                config data */
++              REG_WRITE(0x61208, 0x25807d0);
++              REG_WRITE(0x6120c, 0x1f407d0);
++              REG_WRITE(0x61210, 0x270f04);
++      }
++
++      /* Disable the VGA plane that we never use */
++      REG_WRITE(VGACNTRL, VGA_DISP_DISABLE);
++
++      /* Disable the panel fitter if it was on our pipe */
++      if (psb_intel_panel_fitter_pipe(dev) == pipe)
++              REG_WRITE(PFIT_CONTROL, 0);
++
++      REG_WRITE(pipesrc_reg, ((mode->crtc_hdisplay - 1) << 16) | (mode->crtc_vdisplay - 1));
++
++      if (psb_intel_output)
++              drm_connector_property_get_value(&psb_intel_output->base,
++                      dev->mode_config.scaling_mode_property, &scalingType);
++
++      if (scalingType == DRM_MODE_SCALE_NO_SCALE) {
++              /*Moorestown doesn't have register support for centering so we need to
++                mess with the h/vblank and h/vsync start and ends to get centering*/
++              int offsetX = 0, offsetY = 0;
++
++              offsetX = (adjusted_mode->crtc_hdisplay - mode->crtc_hdisplay) / 2;
++              offsetY = (adjusted_mode->crtc_vdisplay - mode->crtc_vdisplay) / 2;
++
++              REG_WRITE(htot_reg, (mode->crtc_hdisplay - 1) |
++                      ((adjusted_mode->crtc_htotal - 1) << 16));
++              REG_WRITE(vtot_reg, (mode->crtc_vdisplay - 1) |
++                      ((adjusted_mode->crtc_vtotal - 1) << 16));
++              REG_WRITE(hblank_reg, (adjusted_mode->crtc_hblank_start - offsetX - 1) |
++                      ((adjusted_mode->crtc_hblank_end - offsetX - 1) << 16));
++              REG_WRITE(hsync_reg, (adjusted_mode->crtc_hsync_start - offsetX - 1) |
++                      ((adjusted_mode->crtc_hsync_end - offsetX - 1) << 16));
++              REG_WRITE(vblank_reg, (adjusted_mode->crtc_vblank_start - offsetY - 1) |
++                      ((adjusted_mode->crtc_vblank_end - offsetY - 1) << 16));
++              REG_WRITE(vsync_reg, (adjusted_mode->crtc_vsync_start - offsetY - 1) |
++                      ((adjusted_mode->crtc_vsync_end - offsetY - 1) << 16));
++      } else {
++              REG_WRITE(htot_reg, (adjusted_mode->crtc_hdisplay - 1) |
++                      ((adjusted_mode->crtc_htotal - 1) << 16));
++              REG_WRITE(vtot_reg, (adjusted_mode->crtc_vdisplay - 1) |
++                      ((adjusted_mode->crtc_vtotal - 1) << 16));
++              REG_WRITE(hblank_reg, (adjusted_mode->crtc_hblank_start - 1) |
++                      ((adjusted_mode->crtc_hblank_end - 1) << 16));
++              REG_WRITE(hsync_reg, (adjusted_mode->crtc_hsync_start - 1) |
++                      ((adjusted_mode->crtc_hsync_end - 1) << 16));
++              REG_WRITE(vblank_reg, (adjusted_mode->crtc_vblank_start - 1) |
++                      ((adjusted_mode->crtc_vblank_end - 1) << 16));
++              REG_WRITE(vsync_reg, (adjusted_mode->crtc_vsync_start - 1) |
++                      ((adjusted_mode->crtc_vsync_end - 1) << 16));
++      }
++
++      /* Flush the plane changes */
++      {
++              struct drm_crtc_helper_funcs *crtc_funcs =
++                  crtc->helper_private;
++              crtc_funcs->mode_set_base(crtc, x, y, old_fb);
++      }
++
++      /* setup pipeconf */
++      pipeconf = REG_READ(pipeconf_reg);
++
++      /* Set up the display plane register */
++      dspcntr = REG_READ(dspcntr_reg);
++      dspcntr |= DISPPLANE_GAMMA_ENABLE;
++
++      if (pipe == 0)
++              dspcntr |= DISPPLANE_SEL_PIPE_A;
++      else
++              dspcntr |= DISPPLANE_SEL_PIPE_B;
++
++      dev_priv->dspcntr = dspcntr |= DISPLAY_PLANE_ENABLE;
++      dev_priv->pipeconf = pipeconf |= PIPEACONF_ENABLE;
++
++      if (is_mipi)
++              goto mrst_crtc_mode_set_exit;
++
++      if (dev_priv->sku_100L)
++              refclk = 100000;
++      else if (dev_priv->sku_83)
++              refclk = 166000;
++      else if (dev_priv->sku_100)
++              refclk = 200000;
++
++      dpll = 0;               /*BIT16 = 0 for 100MHz reference */
++
++      ok = mrstFindBestPLL(crtc, adjusted_mode->clock, refclk, &clock);
++
++      if (!ok) {
++#if PRINT_JLIU7
++              DRM_INFO
++                  ("JLIU7 mrstFindBestPLL fail in mrst_crtc_mode_set. \n");
++#endif                                /* PRINT_JLIU7 */
++      } else {
++#if PRINT_JLIU7
++              DRM_INFO("JLIU7 mrst_crtc_mode_set pixel clock = %d,"
++                       "m = %x, p1 = %x. \n", clock.dot, clock.m,
++                       clock.p1);
++#endif                                /* PRINT_JLIU7 */
++      }
++
++      fp = mrst_m_converts[(clock.m - MRST_M_MIN)] << 8;
++
++      dpll |= DPLL_VGA_MODE_DIS;
++
++
++      dpll |= DPLL_VCO_ENABLE;
++
++      if (is_lvds)
++              dpll |= DPLLA_MODE_LVDS;
++      else
++              dpll |= DPLLB_MODE_DAC_SERIAL;
++
++      if (is_sdvo) {
++              int sdvo_pixel_multiply =
++                  adjusted_mode->clock / mode->clock;
++
++              dpll |= DPLL_DVO_HIGH_SPEED;
++              dpll |=
++                  (sdvo_pixel_multiply -
++                   1) << SDVO_MULTIPLIER_SHIFT_HIRES;
++      }
++
++
++      /* compute bitmask from p1 value */
++      dpll |= (1 << (clock.p1 - 2)) << 17;
++
++      dpll |= DPLL_VCO_ENABLE;
++
++#if PRINT_JLIU7
++      mrstPrintPll("chosen", &clock);
++#endif                                /* PRINT_JLIU7 */
++
++#if 0
++      if (!xf86ModesEqual(mode, adjusted_mode)) {
++              xf86DrvMsg(pScrn->scrnIndex, X_INFO,
++                         "Adjusted mode for pipe %c:\n",
++                         pipe == 0 ? 'A' : 'B');
++              xf86PrintModeline(pScrn->scrnIndex, mode);
++      }
++      i830PrintPll("chosen", &clock);
++#endif
++
++      if (dpll & DPLL_VCO_ENABLE) {
++              REG_WRITE(fp_reg, fp);
++              REG_WRITE(dpll_reg, dpll & ~DPLL_VCO_ENABLE);
++              REG_READ(dpll_reg);
++/* FIXME jliu7 check the DPLLA lock bit PIPEACONF[29] */
++              udelay(150);
++      }
++
++      /* The LVDS pin pair needs to be on before the DPLLs are enabled.
++       * This is an exception to the general rule that mode_set doesn't turn
++       * things on.
++       */
++      if (is_lvds) {
++
++              /*lvdsport = 0x803003c0;*/
++              /*lvdsport = 0x813003c0;*/
++              lvdsport = dev_priv->gct_data.Panel_Port_Control;
++
++              REG_WRITE(LVDS, lvdsport);
++      }
++
++      REG_WRITE(fp_reg, fp);
++      REG_WRITE(dpll_reg, dpll);
++      REG_READ(dpll_reg);
++      /* Wait for the clocks to stabilize. */
++      udelay(150);
++
++      /* write it again -- the BIOS does, after all */
++      REG_WRITE(dpll_reg, dpll);
++      REG_READ(dpll_reg);
++      /* Wait for the clocks to stabilize. */
++      udelay(150);
++
++      REG_WRITE(pipeconf_reg, pipeconf);
++      REG_READ(pipeconf_reg);
++
++      /* Wait for for the pipe enable to take effect. */
++      mrstWaitForPipeEnable(dev);
++
++      REG_WRITE(dspcntr_reg, dspcntr);
++      psb_intel_wait_for_vblank(dev);
++
++mrst_crtc_mode_set_exit:
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++
++      return 0;
++}
++
++
++static const struct drm_crtc_helper_funcs mrst_helper_funcs = {
++      .dpms = mrst_crtc_dpms,
++      .mode_fixup = psb_intel_crtc_mode_fixup,
++      .mode_set = mrst_crtc_mode_set,
++      .mode_set_base = psb_intel_pipe_set_base,
++      .prepare = psb_intel_crtc_prepare,
++      .commit = psb_intel_crtc_commit,
++};
++
++/* MRST_PLATFORM end */
+diff --git a/drivers/gpu/drm/psb/psb_intel_display.h b/drivers/gpu/drm/psb/psb_intel_display.h
+new file mode 100644
+index 0000000..dcb79d4
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_display.h
+@@ -0,0 +1,31 @@
++
++/* copyright (c) 2008, Intel Corporation
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
++ * DEALINGS IN THE SOFTWARE.
++ *
++ * Authors:
++ * Eric Anholt <eric@anholt.net>
++ */
++
++#ifndef _INTEL_DISPLAY_H_
++#define _INTEL_DISPLAY_H_
++
++bool psb_intel_pipe_has_type(struct drm_crtc *crtc, int type);
++
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_intel_drv.h b/drivers/gpu/drm/psb/psb_intel_drv.h
+new file mode 100644
+index 0000000..a64ce59
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_drv.h
+@@ -0,0 +1,246 @@
++/*
++ * Copyright (c) 2006 Dave Airlie <airlied@linux.ie>
++ * Copyright (c) 2007 Intel Corporation
++ *   Jesse Barnes <jesse.barnes@intel.com>
++ */
++#ifndef __INTEL_DRV_H__
++#define __INTEL_DRV_H__
++
++#include <linux/i2c.h>
++#include <linux/i2c-id.h>
++#include <linux/i2c-algo-bit.h>
++#include <drm/drm_crtc.h>
++
++#include <drm/drm_crtc_helper.h>
++
++/*
++ * MOORESTOWN defines
++ */
++#define MRST_I2C 0
++
++#define DUMP_REGISTER 0
++#define MRST_24BIT_LVDS 1
++#define MRST_24BIT_DOT_1 0
++#define MRST_24BIT_WA 0
++
++#define PRINT_JLIU7 0
++#define DELAY_TIME1 2000 /* 1000 = 1ms */
++
++/*
++ * Display related stuff
++ */
++
++/* store information about an Ixxx DVO */
++/* The i830->i865 use multiple DVOs with multiple i2cs */
++/* the i915, i945 have a single sDVO i2c bus - which is different */
++#define MAX_OUTPUTS 6
++/* maximum connectors per crtcs in the mode set */
++#define INTELFB_CONN_LIMIT 4
++
++#define INTEL_I2C_BUS_DVO 1
++#define INTEL_I2C_BUS_SDVO 2
++
++/* these are outputs from the chip - integrated only
++ * external chips are via DVO or SDVO output */
++#define INTEL_OUTPUT_UNUSED 0
++#define INTEL_OUTPUT_ANALOG 1
++#define INTEL_OUTPUT_DVO 2
++#define INTEL_OUTPUT_SDVO 3
++#define INTEL_OUTPUT_LVDS 4
++#define INTEL_OUTPUT_TVOUT 5
++#define INTEL_OUTPUT_MIPI 6
++
++#define INTEL_DVO_CHIP_NONE 0
++#define INTEL_DVO_CHIP_LVDS 1
++#define INTEL_DVO_CHIP_TMDS 2
++#define INTEL_DVO_CHIP_TVOUT 4
++
++struct opregion_header {
++      u8 signature[16];
++      u32 size;
++      u32 opregion_ver;
++      u8 bios_ver[32];
++      u8 vbios_ver[16];
++      u8 driver_ver[16];
++      u32 mboxes;
++      u8 reserved[164];
++}__attribute__((packed));
++
++struct opregion_apci {
++      /*FIXME: add it later*/
++}__attribute__((packed));
++
++struct opregion_swsci {
++      /*FIXME: add it later*/
++}__attribute__((packed));
++
++struct opregion_acpi {
++      /*FIXME: add it later*/
++}__attribute__((packed));
++
++struct psb_intel_opregion {
++      struct opregion_header * header;
++      struct opregion_acpi * acpi;
++      struct opregion_swsci * swsci;
++      struct opregion_asle * asle;
++      int enabled;
++};
++
++/**
++ * Hold information useally put on the device driver privates here,
++ * since it needs to be shared across multiple of devices drivers privates.
++ */
++struct psb_intel_mode_device {
++
++      /*
++       * Abstracted memory manager operations
++       */
++      void *(*bo_from_handle) (struct drm_device *dev,
++                               struct drm_file *file_priv,
++                               unsigned int handle);
++       size_t(*bo_size) (struct drm_device *dev, void *bo);
++       size_t(*bo_offset) (struct drm_device *dev, void *bo);
++      int (*bo_pin_for_scanout) (struct drm_device *dev, void *bo);
++      int (*bo_unpin_for_scanout) (struct drm_device *dev, void *bo);
++
++      /*
++       * Cursor
++       */
++      int cursor_needs_physical;
++
++      /*
++       * LVDS info
++       */
++      int backlight_duty_cycle;       /* restore backlight to this value */
++      bool panel_wants_dither;
++      struct drm_display_mode *panel_fixed_mode;
++      struct drm_display_mode *vbt_mode;      /* if any */
++
++      uint32_t saveBLC_PWM_CTL;
++};
++
++struct psb_intel_i2c_chan {
++      /* for getting at dev. private (mmio etc.) */
++      struct drm_device *drm_dev;
++      u32 reg;                /* GPIO reg */
++      struct i2c_adapter adapter;
++      struct i2c_algo_bit_data algo;
++      u8 slave_addr;
++};
++
++struct psb_intel_output {
++      struct drm_connector base;
++
++      struct drm_encoder enc;
++      int type;
++      struct psb_intel_i2c_chan *i2c_bus;     /* for control functions */
++      struct psb_intel_i2c_chan *ddc_bus;     /* for DDC only stuff */
++      bool load_detect_temp;
++      void *dev_priv;
++
++      struct psb_intel_mode_device *mode_dev;
++
++};
++
++struct psb_intel_crtc_state {
++      uint32_t saveDSPCNTR;
++      uint32_t savePIPECONF;
++      uint32_t savePIPESRC;
++      uint32_t saveDPLL;
++      uint32_t saveFP0;
++      uint32_t saveFP1;
++      uint32_t saveHTOTAL;
++      uint32_t saveHBLANK;
++      uint32_t saveHSYNC;
++      uint32_t saveVTOTAL;
++      uint32_t saveVBLANK;
++      uint32_t saveVSYNC;
++      uint32_t saveDSPSTRIDE;
++      uint32_t saveDSPSIZE;
++      uint32_t saveDSPPOS;
++      uint32_t saveDSPBASE;
++      uint32_t savePalette[256];
++};
++
++struct psb_intel_crtc {
++      struct drm_crtc base;
++      int pipe;
++      int plane;
++      uint32_t cursor_addr;
++      u8 lut_r[256], lut_g[256], lut_b[256];
++      int dpms_mode;
++      struct psb_intel_framebuffer *fbdev_fb;
++      /* a mode_set for fbdev users on this crtc */
++      struct drm_mode_set mode_set;
++
++      /* current bo we scanout from */
++      void *scanout_bo;
++
++      /* current bo we cursor from */
++      void *cursor_bo;
++
++      struct drm_display_mode saved_mode;
++      struct drm_display_mode saved_adjusted_mode;
++
++      struct psb_intel_mode_device *mode_dev;
++
++/*FIXME: Workaround to avoid MRST block.*/
++#ifndef CONFIG_MRST
++      /**
++       * Saved Crtc HW states
++       */
++      struct psb_intel_crtc_state * crtc_state;
++#endif
++};
++
++#define to_psb_intel_crtc(x) container_of(x, struct psb_intel_crtc, base)
++#define to_psb_intel_output(x) container_of(x, struct psb_intel_output, base)
++#define enc_to_psb_intel_output(x) container_of(x, struct psb_intel_output, enc)
++#define to_psb_intel_framebuffer(x) container_of(x, struct psb_intel_framebuffer, base)
++
++struct psb_intel_i2c_chan *psb_intel_i2c_create(struct drm_device *dev,
++                                      const u32 reg, const char *name);
++void psb_intel_i2c_destroy(struct psb_intel_i2c_chan *chan);
++int psb_intel_ddc_get_modes(struct psb_intel_output *psb_intel_output);
++extern bool psb_intel_ddc_probe(struct psb_intel_output *psb_intel_output);
++
++extern void psb_intel_crtc_init(struct drm_device *dev, int pipe,
++                          struct psb_intel_mode_device *mode_dev);
++extern void psb_intel_crt_init(struct drm_device *dev);
++extern void psb_intel_sdvo_init(struct drm_device *dev, int output_device);
++extern void psb_intel_dvo_init(struct drm_device *dev);
++extern void psb_intel_tv_init(struct drm_device *dev);
++extern void psb_intel_lvds_init(struct drm_device *dev,
++                          struct psb_intel_mode_device *mode_dev);
++extern void psb_intel_lvds_set_brightness(struct drm_device *dev, int level);
++extern void mrst_lvds_init(struct drm_device *dev,
++                         struct psb_intel_mode_device *mode_dev);
++extern void mrst_dsi_init(struct drm_device *dev,
++                         struct psb_intel_mode_device *mode_dev);
++
++extern void psb_intel_crtc_load_lut(struct drm_crtc *crtc);
++extern void psb_intel_encoder_prepare(struct drm_encoder *encoder);
++extern void psb_intel_encoder_commit(struct drm_encoder *encoder);
++
++extern struct drm_encoder *psb_intel_best_encoder(struct drm_connector
++                                            *connector);
++
++extern struct drm_display_mode *psb_intel_crtc_mode_get(struct drm_device *dev,
++                                                  struct drm_crtc *crtc);
++extern void psb_intel_wait_for_vblank(struct drm_device *dev);
++extern struct drm_crtc *psb_intel_get_crtc_from_pipe(struct drm_device *dev,
++                                               int pipe);
++extern struct drm_connector *psb_intel_sdvo_find(struct drm_device *dev,
++                                           int sdvoB);
++extern int psb_intel_sdvo_supports_hotplug(struct drm_connector *connector);
++extern void psb_intel_sdvo_set_hotplug(struct drm_connector *connector,
++                                 int enable);
++extern int intelfb_probe(struct drm_device *dev);
++extern int intelfb_remove(struct drm_device *dev,
++                        struct drm_framebuffer *fb);
++extern struct drm_framebuffer *psb_intel_framebuffer_create(struct drm_device
++                                                      *dev, struct
++                                                      drm_mode_fb_cmd
++                                                      *mode_cmd,
++                                                      void *mm_private);
++#endif                                /* __INTEL_DRV_H__ */
+diff --git a/drivers/gpu/drm/psb/psb_intel_dsi.c b/drivers/gpu/drm/psb/psb_intel_dsi.c
+new file mode 100644
+index 0000000..bcfee62
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_dsi.c
+@@ -0,0 +1,1798 @@
++/*
++ * Copyright Â© 2006-2007 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
++ * DEALINGS IN THE SOFTWARE.
++ *
++ * Authors:
++ *    jim liu <jim.liu@intel.com>
++ */
++
++#include <linux/backlight.h>
++#include <drm/drm_crtc.h>
++#include <drm/drm_edid.h>
++
++#define DRM_MODE_ENCODER_MIPI  5
++#define DRM_MODE_CONNECTOR_MIPI                13
++
++#if DUMP_REGISTER
++extern void dump_dsi_registers(struct drm_device *dev);
++#endif /* DUMP_REGISTER */
++
++int dsi_backlight;    /* restore backlight to this value */
++
++/**
++ * Returns the maximum level of the backlight duty cycle field.
++ */
++static u32 mrst_dsi_get_max_backlight(struct drm_device *dev)
++{
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter mrst_dsi_get_max_backlight \n");
++#endif /* PRINT_JLIU7 */
++
++      return BRIGHTNESS_MAX_LEVEL;
++
++/* FIXME jliu7 need to revisit */
++}
++
++/**
++ * Sets the power state for the panel.
++ */
++static void mrst_dsi_set_power(struct drm_device *dev,
++                      struct psb_intel_output *output, bool on)
++{
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++      u32 pp_status;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter mrst_dsi_set_power \n");
++#endif /* PRINT_JLIU7 */
++      /*
++       * The DIS device must be ready before we can change power state.
++       */
++      if (!dev_priv->dsi_device_ready)
++      {
++              return;
++      }
++
++      /*
++       * We don't support dual DSI yet. May be in POR in the future.
++       */
++      if (dev_priv->dual_display)
++      {
++              return;
++      }
++
++
++    powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++    if (on) {
++        if (dev_priv->dpi & (!dev_priv->dpi_panel_on))
++          {
++
++#if PRINT_JLIU7
++            DRM_INFO("JLIU7 mrst_dsi_set_power  dpi = on \n");
++#endif /* PRINT_JLIU7 */
++                  REG_WRITE(DPI_CONTROL_REG, DPI_TURN_ON);
++#if 0 /*FIXME JLIU7 */
++            REG_WRITE(DPI_DATA_REG, DPI_BACK_LIGHT_ON_DATA);
++            REG_WRITE(DPI_CONTROL_REG, DPI_BACK_LIGHT_ON);
++#endif /*FIXME JLIU7 */
++
++            dev_priv->dpi_panel_on = true;
++
++            REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) |
++                POWER_TARGET_ON);
++            do {
++                pp_status = REG_READ(PP_STATUS);
++            } while ((pp_status & (PP_ON | PP_READY)) == PP_READY);
++      }
++      else if ((!dev_priv->dpi) & (!dev_priv->dbi_panel_on))
++      {
++#if PRINT_JLIU7
++        DRM_INFO("JLIU7 mrst_dsi_set_power  dbi = on \n");
++#endif /* PRINT_JLIU7 */
++
++              dev_priv->DBI_CB_pointer = 0;
++              /* exit sleep mode */
++              *(dev_priv->p_DBI_commandBuffer + dev_priv->DBI_CB_pointer++) = exit_sleep_mode;
++
++#if 0 /*FIXME JLIU7 */
++              /* Check MIPI Adatper command registers */
++              while (REG_READ(MIPI_COMMAND_ADDRESS_REG) & BIT0);
++#endif /*FIXME JLIU7 */
++
++              /* FIXME_jliu7 mapVitualToPhysical(dev_priv->p_DBI_commandBuffer);*/
++              REG_WRITE(MIPI_COMMAND_LENGTH_REG, 1);
++              REG_WRITE(MIPI_COMMAND_ADDRESS_REG, (u32)dev_priv->p_DBI_commandBuffer | BIT0);
++
++              /* The host processor must wait five milliseconds after sending exit_sleep_mode command before sending another
++              command. This delay allows the supply voltages and clock circuits to stabilize */
++              udelay(5000);
++
++              dev_priv->DBI_CB_pointer = 0;
++
++              /*      set display on */
++              *(dev_priv->p_DBI_commandBuffer + dev_priv->DBI_CB_pointer++) = set_display_on ;
++
++#if 0 /*FIXME JLIU7 */
++              /* Check MIPI Adatper command registers */
++              while (REG_READ(MIPI_COMMAND_ADDRESS_REG) & BIT0);
++#endif /*FIXME JLIU7 */
++
++              /* FIXME_jliu7 mapVitualToPhysical(dev_priv->p_DBI_commandBuffer);*/
++              REG_WRITE(MIPI_COMMAND_LENGTH_REG, 1);
++              REG_WRITE(MIPI_COMMAND_ADDRESS_REG, (u32)dev_priv->p_DBI_commandBuffer | BIT0);
++
++              dev_priv->dbi_panel_on = true;
++      }
++/*FIXME JLIU7 */
++/* Need to figure out how to control the MIPI panel power on sequence*/
++
++      }
++      else
++      {
++/*FIXME JLIU7 */
++/* Need to figure out how to control the MIPI panel power down sequence*/
++      /*
++       * Only save the current backlight value if we're going from
++       * on to off.
++       */
++      if (dev_priv->dpi & dev_priv->dpi_panel_on)
++      {
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 mrst_dsi_set_power  dpi = off \n");
++#endif /* PRINT_JLIU7 */
++
++              REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) &
++                         ~POWER_TARGET_ON);
++              do {
++                      pp_status = REG_READ(PP_STATUS);
++              } while (pp_status & PP_ON);
++
++#if 0 /*FIXME JLIU7 */
++              REG_WRITE(DPI_DATA_REG, DPI_BACK_LIGHT_OFF_DATA);
++              REG_WRITE(DPI_CONTROL_REG, DPI_BACK_LIGHT_OFF);
++#endif /*FIXME JLIU7 */
++              REG_WRITE(DPI_CONTROL_REG, DPI_SHUT_DOWN);
++              dev_priv->dpi_panel_on = false;
++      }
++      else if ((!dev_priv->dpi) & dev_priv->dbi_panel_on)
++      {
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 mrst_dsi_set_power  dbi = off \n");
++#endif /* PRINT_JLIU7 */
++              dev_priv->DBI_CB_pointer = 0;
++              /* enter sleep mode */
++              *(dev_priv->p_DBI_commandBuffer + dev_priv->DBI_CB_pointer++) = enter_sleep_mode;
++
++              /* Check MIPI Adatper command registers */
++              while (REG_READ(MIPI_COMMAND_ADDRESS_REG) & BIT0);
++
++              /* FIXME_jliu7 mapVitualToPhysical(dev_priv->p_DBI_commandBuffer);*/
++              REG_WRITE(MIPI_COMMAND_LENGTH_REG, 1);
++              REG_WRITE(MIPI_COMMAND_ADDRESS_REG, (u32)dev_priv->p_DBI_commandBuffer | BIT0);
++              dev_priv->dbi_panel_on = false;
++      }
++    }
++
++    powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++static void mrst_dsi_dpms(struct drm_encoder *encoder, int mode)
++{
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_output *output = enc_to_psb_intel_output(encoder);
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter mrst_dsi_dpms \n");
++#endif /* PRINT_JLIU7 */
++
++      if (mode == DRM_MODE_DPMS_ON)
++              mrst_dsi_set_power(dev, output, true);
++      else
++              mrst_dsi_set_power(dev, output, false);
++
++      /* XXX: We never power down the DSI pairs. */
++}
++
++static void mrst_dsi_save(struct drm_connector *connector)
++{
++#if 0 /* JB: Disable for drop */
++      struct drm_device *dev = connector->dev;
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter  mrst_dsi_save \n");
++#endif /* PRINT_JLIU7 */
++
++      dev_priv->savePP_ON = REG_READ(LVDSPP_ON);
++      dev_priv->savePP_OFF = REG_READ(LVDSPP_OFF);
++      dev_priv->savePP_CONTROL = REG_READ(PP_CONTROL);
++      dev_priv->savePP_CYCLE = REG_READ(PP_CYCLE);
++      dev_priv->saveBLC_PWM_CTL = REG_READ(BLC_PWM_CTL);
++      dev_priv->backlight_duty_cycle = (dev_priv->saveBLC_PWM_CTL &
++                                     BACKLIGHT_DUTY_CYCLE_MASK);
++
++      /*
++       * make backlight to full brightness
++       */
++      dsi_backlight = mrst_dsi_get_max_backlight(dev);
++#endif
++}
++
++static void mrst_dsi_restore(struct drm_connector *connector)
++{
++#if 0 /* JB: Disable for drop */
++      struct drm_device *dev = connector->dev;
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter  mrst_dsi_restore \n");
++#endif /* PRINT_JLIU7 */
++
++      REG_WRITE(BLC_PWM_CTL, dev_priv->saveBLC_PWM_CTL);
++      REG_WRITE(LVDSPP_ON, dev_priv->savePP_ON);
++      REG_WRITE(LVDSPP_OFF, dev_priv->savePP_OFF);
++      REG_WRITE(PP_CYCLE, dev_priv->savePP_CYCLE);
++      REG_WRITE(PP_CONTROL, dev_priv->savePP_CONTROL);
++      if (dev_priv->savePP_CONTROL & POWER_TARGET_ON)
++              mrst_dsi_set_power(dev, true);
++      else
++              mrst_dsi_set_power(dev, false);
++#endif
++}
++
++static void mrst_dsi_prepare(struct drm_encoder *encoder)
++{
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_output *output = enc_to_psb_intel_output(encoder);
++      struct psb_intel_mode_device *mode_dev = output->mode_dev;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter  mrst_dsi_prepare \n");
++#endif /* PRINT_JLIU7 */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      mode_dev->saveBLC_PWM_CTL = REG_READ(BLC_PWM_CTL);
++      mode_dev->backlight_duty_cycle = (mode_dev->saveBLC_PWM_CTL &
++                                        BACKLIGHT_DUTY_CYCLE_MASK);
++
++      mrst_dsi_set_power(dev, output, false);
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++static void mrst_dsi_commit( struct drm_encoder *encoder)
++{
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_output *output = enc_to_psb_intel_output(encoder);
++      struct psb_intel_mode_device *mode_dev = output->mode_dev;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter  mrst_dsi_commit \n");
++#endif /* PRINT_JLIU7 */
++
++      if (mode_dev->backlight_duty_cycle == 0)
++              mode_dev->backlight_duty_cycle =
++                      mrst_dsi_get_max_backlight(dev);
++
++      mrst_dsi_set_power(dev, output, true);
++
++#if DUMP_REGISTER
++      dump_dsi_registers(dev);
++#endif /* DUMP_REGISTER */
++}
++
++#if 0
++/* ************************************************************************* *\
++FUNCTION: GetHS_TX_timeoutCount
++                                                                                                                              `
++DESCRIPTION: In burst mode, value  greater than one DPI line Time in byte clock
++      (txbyteclkhs). To timeout this timer 1+ of the above said value is recommended.
++
++      In non-burst mode, Value greater than one DPI frame time in byte clock(txbyteclkhs).
++      To timeout this timer 1+ of the above said value is recommended.
++
++\* ************************************************************************* */
++static u32 GetHS_TX_timeoutCount(DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++
++      u32 timeoutCount = 0, HTOT_count = 0, VTOT_count = 0, HTotalPixel = 0;
++      
++      /* Total pixels need to be transfer per line*/
++      HTotalPixel = (dev_priv->HsyncWidth + dev_priv->HbackPorch + dev_priv->HfrontPorch) * dev_priv->laneCount + dev_priv->HactiveArea;
++
++      /* byte count = (pixel count *  bits per pixel) / 8 */
++      HTOT_count = (HTotalPixel * dev_priv->bpp) / 8;
++
++      if (dev_priv->videoModeFormat == BURST_MODE)
++      {
++              timeoutCount = HTOT_count + 1;
++#if 1 /*FIXME remove it after power-on */
++              VTOT_count = dev_priv->VactiveArea + dev_priv->VbackPorch + dev_priv->VfrontPorch
++                              + dev_priv->VsyncWidth;
++              /* timeoutCount = (HTOT_count * VTOT_count) + 1; */
++              timeoutCount = (HTOT_count * VTOT_count) + 1;
++#endif
++      }
++      else
++      {
++              VTOT_count = dev_priv->VactiveArea + dev_priv->VbackPorch + dev_priv->VfrontPorch
++                              + dev_priv->VsyncWidth;
++              /* timeoutCount = (HTOT_count * VTOT_count) + 1; */
++              timeoutCount = (HTOT_count * VTOT_count) + 1;
++      }
++
++      return timeoutCount & 0xFFFF;
++}
++
++/* ************************************************************************* *\
++FUNCTION: GetLP_RX_timeoutCount
++
++DESCRIPTION: The timeout value is protocol specific. Time out value is calculated
++      from txclkesc(50ns).
++
++      Minimum value =
++              Time to send one Trigger message =   4 X txclkesc [Escape mode entry sequence)
++              + 8-bit trigger message (2x8xtxclkesc)
++              +1 txclksesc [stop_state]
++      = 21 X txclkesc [ 15h]
++
++      Maximum Value =
++              Time to send a long packet with maximum payload data
++                      = 4 X txclkesc [Escape mode entry sequence)
++              + 8-bit Low power data transmission Command (2x8xtxclkesc)
++              + packet header [ 4X8X2X txclkesc]
++              +payload [ nX8X2Xtxclkesc]
++              +CRC[2X8X2txclkesc]
++              +1 txclksesc [stop_state]
++      = 117 txclkesc +n[payload in terms of bytes]X16txclkesc.
++
++\* ************************************************************************* */
++static u32 GetLP_RX_timeoutCount(DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++
++      u32 timeoutCount = 0;
++
++      if (dev_priv->config_phase)
++      {
++              /* Assuming 256 byte DDB data.*/
++              timeoutCount = 117 + 256 * 16;
++      }
++      else
++      {
++              /* For DPI video only mode use the minimum value.*/
++              timeoutCount = 0x15;
++#if 1 /*FIXME remove it after power-on */
++              /* Assuming 256 byte DDB data.*/
++              timeoutCount = 117 + 256 * 16;
++#endif
++      }
++
++      return timeoutCount;
++}
++#endif // #if 0 - to avoid warnings
++
++/* ************************************************************************* *\
++FUNCTION: GetHSA_Count
++
++DESCRIPTION: Shows the horizontal sync value in terms of byte clock
++                      (txbyteclkhs)
++      Minimum HSA period should be sufficient to transmit a hsync start short
++              packet(4 bytes)
++              i) For Non-burst Mode with sync pulse, Min value ï¿½ 4 in decimal [plus
++                      an optional 6 bytes for a zero payload blanking packet]. But if
++                      the value is less than 10 but more than 4, then this count will
++                      be added to the HBP�s count for one lane.
++              ii) For Non-Burst Sync Event & Burst Mode, there is no HSA, so you
++                      can program this to zero. If you program this register, these
++                      byte values will be added to HBP.
++              iii) For Burst mode of operation, normally the values programmed in
++                      terms of byte clock are based on the principle - time for transfering
++                      HSA in Burst mode is the same as in non-bust mode.
++\* ************************************************************************* */
++static u32 GetHSA_Count(struct drm_device *dev, DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 HSA_count;
++      u32 HSA_countX8;
++
++      /* byte clock count = (pixel clock count *  bits per pixel) /8 */
++      /*HSA_countX8 = dev_priv->HsyncWidth * dev_priv->bpp;
++
++      if (dev_priv->videoModeFormat == BURST_MODE)
++      {
++              HSA_countX8 *= dev_priv->DDR_Clock / dev_priv->DDR_Clock_Calculated;
++      }
++
++      HSA_count = HSA_countX8 / 8;*/
++
++      /* since mode_set already computed Display Controller timings,
++       *  read the register and compute mipi timings.
++      */
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              HSA_countX8 = REG_READ(HSYNC_A);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else
++              HSA_countX8 = dev_priv->saveHSYNC_A;
++
++      /* Get the hsync pulse width */
++      HSA_count = ((HSA_countX8 & 0xffff0000)>>16) - (HSA_countX8 & 0xffff);
++      /* compute HSA according to equation:
++       (hsync_end - hsync_start) * 24 bpp / (2 * 8 bits per lane * 2 lanes)*/
++      HSA_count = (HSA_count * dev_priv->bpp)/(2 * 8 * 2);
++      if (HSA_count < 4) /* minimum value of 4 */
++              HSA_count = 4;
++
++      return HSA_count;
++}
++                                                                                                                                      
++/* ************************************************************************* *\
++FUNCTION: GetHBP_Count
++
++DESCRIPTION: Shows the horizontal back porch value in terms of txbyteclkhs.
++      Minimum HBP period should be sufficient to transmit a ï¿½hsync end short
++              packet(4 bytes) + Blanking packet overhead(6 bytes) + RGB packet header(4 bytes)�
++      For Burst mode of operation, normally the values programmed in terms of
++              byte clock are based on the principle - time for transfering HBP
++              in Burst mode is the same as in non-bust mode.
++
++      Min value ï¿½ 14 in decimal [ accounted with zero payload for blanking packet] for one lane.
++      Max value ï¿½ any value greater than 14 based on DPI resolution
++\* ************************************************************************* */
++static u32 GetHBP_Count(struct drm_device *dev, DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 HBP_count;
++      u32 HBE, HSE;
++      
++      /* byte clock count = (pixel clock count *  bits per pixel) /8 */
++      /*HBP_countX8 = dev_priv->HbackPorch * dev_priv->bpp;
++
++      if (dev_priv->videoModeFormat == BURST_MODE)
++      {
++              HBP_countX8 *= dev_priv->DDR_Clock / dev_priv->DDR_Clock_Calculated;
++      }
++
++      HBP_count = HBP_countX8 / 8;*/
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              HBE = (REG_READ(HBLANK_A) & 0xffff0000) >> 16;
++              HSE = (REG_READ(HSYNC_A) & 0xffff0000) >> 16;
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else {
++              HBE = (dev_priv->saveHBLANK_A & 0xffff0000) >> 16;
++              HSE = (dev_priv->saveHSYNC_A & 0xffff0000) >> 16;
++      }
++
++      /* Get the hsync pulse width */
++      HBP_count = HBE - HSE;
++      /* compute HSA according to equation:
++       * (hblank_end - hsync_end) * 24 bpp / (2 * 8 bits per lane * 2 lanes)*/
++      HBP_count = (HBP_count * dev_priv->bpp)/(2 * 8 * 2);
++      if (HBP_count < 8) /* minimum value of 8 */
++              HBP_count = 8;
++
++      return HBP_count;
++}
++
++/* ************************************************************************* *\
++FUNCTION: GetHFP_Count
++
++DESCRIPTION: Shows the horizontal front porch value in terms of txbyteclkhs.
++      Minimum HFP period should be sufficient to transmit ï¿½RGB Data packet
++      footer(2 bytes) + Blanking packet overhead(6 bytes)� for non burst mode.
++      
++      For burst mode, Minimum HFP period should be sufficient to transmit
++      Blanking packet overhead(6 bytes)�
++
++      For Burst mode of operation, normally the values programmed in terms of
++              byte clock are based on the principle - time for transfering HFP
++              in Burst mode is the same as in non-bust mode.
++
++      Min value ï¿½ 8 in decimal  for non-burst mode [accounted with zero payload
++              for blanking packet] for one lane.
++      Min value ï¿½ 6 in decimal for burst mode for one lane.
++      
++      Max value ï¿½ any value greater than the minimum vaue based on DPI resolution
++\* ************************************************************************* */
++static u32 GetHFP_Count(struct drm_device *dev, DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 HFP_count;
++      u32 HBS, HSS;
++      
++      /* byte clock count = (pixel clock count *  bits per pixel) /8 */
++      /*HFP_countX8 = dev_priv->HfrontPorch * dev_priv->bpp;
++
++      if (dev_priv->videoModeFormat == BURST_MODE)
++      {
++              HFP_countX8 *= dev_priv->DDR_Clock / dev_priv->DDR_Clock_Calculated;
++      }
++
++      HFP_count = HFP_countX8 / 8;*/
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              HBS = REG_READ(HBLANK_A) & 0xffff;
++              HSS = REG_READ(HSYNC_A) & 0xffff;
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else {
++              HBS = dev_priv->saveHBLANK_A & 0xffff;
++              HSS = dev_priv->saveHSYNC_A & 0xffff;
++      }
++
++      /* Get the hsync pulse width */
++      HFP_count = HSS - HBS;
++      /* compute HSA according to equation:
++       * (hblank_end - hsync_end) * 24 bpp / (2 * 8 bits per lane * 2 lanes)*/
++      HFP_count = (HFP_count * dev_priv->bpp)/(2 * 8 * 2);
++      if (HFP_count < 8) /* minimum value of 8 */
++              HFP_count = 8;
++
++      return HFP_count;
++}
++
++/* ************************************************************************* *\
++FUNCTION: GetHAdr_Count
++
++DESCRIPTION: Shows the horizontal active area value in terms of txbyteclkhs.
++      In Non Burst Mode, Count equal to RGB word count value
++      
++      In Burst Mode, RGB pixel packets are time-compressed, leaving more time
++              during a scan line for LP mode (saving power) or for multiplexing
++              other transmissions onto the DSI link. Hence, the count equals the
++              time in txbyteclkhs for sending  time compressed RGB pixels plus
++              the time needed for moving to power save mode or the time needed
++              for secondary channel to use the DSI link.
++
++      But if the left out time for moving to low power mode is less than
++              8 txbyteclkhs [2txbyteclkhs for RGB data packet footer and
++              6txbyteclkhs for a blanking packet with zero payload],  then
++              this count will be added to the HFP's count for one lane.
++
++      Min value ï¿½ 8 in decimal  for non-burst mode [accounted with zero payload
++              for blanking packet] for one lane.
++      Min value ï¿½ 6 in decimal for burst mode for one lane.
++      
++      Max value ï¿½ any value greater than the minimum vaue based on DPI resolution
++\* ************************************************************************* */
++static u32 GetHAdr_Count(struct drm_device *dev, DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 HAdr_count;
++      u32 Hactive;
++      
++      /* byte clock count = (pixel clock count *  bits per pixel) /8 */
++      /*HAdr_countX8 = dev_priv->HactiveArea * dev_priv->bpp;
++
++      if (dev_priv->videoModeFormat == BURST_MODE)
++      {
++              HAdr_countX8 *= dev_priv->DDR_Clock / dev_priv->DDR_Clock_Calculated;
++      }
++
++      HAdr_count = HAdr_countX8 / 8;*/
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              Hactive = (REG_READ(HTOTAL_A) & 0x0fff) + 1;
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else
++              Hactive = (dev_priv->saveHTOTAL_A & 0x0fff) + 1;
++
++      /* compute HAdr according to equation:
++       * (hactive * 24 bpp/8) / 2 lanes)*/
++
++      HAdr_count = (Hactive * dev_priv->bpp/8) / 2;
++
++      return HAdr_count;
++}
++
++/* ************************************************************************* *\
++FUNCTION: GetVSA_Count
++
++DESCRIPTION: Shows the vertical sync value in terms of lines
++
++\* ************************************************************************* */
++static u32 GetVSA_Count(struct drm_device *dev, DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 VSA_count;
++      u32 VSA_countX8;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              VSA_countX8 = REG_READ(VSYNC_A);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else
++              VSA_countX8 = dev_priv->saveVSYNC_A;
++
++      /* Get the vsync pulse width */
++      VSA_count = ((VSA_countX8 & 0xffff0000)>>16) - (VSA_countX8 & 0xffff);
++
++      if (VSA_count < 2) /* minimum value of 2 */
++              VSA_count = 2;
++
++      return VSA_count;
++}
++
++/* ************************************************************************* *\
++ * FUNCTION: GetVBP_Count
++ *
++ * DESCRIPTION: Shows the vertical back porch value in lines.
++ *
++\* ************************************************************************* */
++static u32 GetVBP_Count(struct drm_device *dev, DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 VBP_count;
++      u32 VBE, VSE;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              VBE = (REG_READ(VBLANK_A) & 0xffff0000) >> 16;
++              VSE = (REG_READ(VSYNC_A) & 0xffff0000) >> 16;
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else {
++              VBE = (dev_priv->saveVBLANK_A & 0xffff0000) >> 16;
++              VSE = (dev_priv->saveVSYNC_A & 0xffff0000) >> 16;
++      }
++
++      /* Get the hsync pulse width */
++      VBP_count = VBE - VSE;
++
++      if (VBP_count < 2) /* minimum value of 2 */
++              VBP_count = 2;
++
++      return VBP_count;
++}
++/* ************************************************************************* *\
++ * FUNCTION: GetVFP_Count
++ *
++ * DESCRIPTION: Shows the vertical front porch value in terms of lines.
++ *
++\* ************************************************************************* */
++static u32 GetVFP_Count(struct drm_device *dev, DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 VFP_count;
++      u32 VBS, VSS;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              VBS = REG_READ(VBLANK_A) & 0xffff;
++              VSS = REG_READ(VSYNC_A) & 0xffff;
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else {
++              VBS = dev_priv->saveVBLANK_A & 0xffff;
++              VSS = dev_priv->saveVSYNC_A & 0xffff;
++      }
++
++      /* Get the hsync pulse width */
++      VFP_count = VSS - VBS;
++
++      if (VFP_count < 2) /* minimum value of 2 */
++              VFP_count = 2;
++
++      return VFP_count;
++}
++
++#if 0
++/* ************************************************************************* *\
++FUNCTION: GetHighLowSwitchCount
++
++DESCRIPTION: High speed to low power or Low power to high speed switching time
++                              in terms byte clock (txbyteclkhs). This value is based on the
++                              byte clock (txbyteclkhs) and low power clock frequency (txclkesc)
++
++      Typical value - Number of byte clocks required to switch from low power mode
++              to high speed mode after "txrequesths" is asserted.
++
++      The worst count value among the low to high or high to low switching time
++              in terms of txbyteclkhs  has to be programmed in this register.
++      
++      Usefull Formulae:
++              DDR clock period = 2 times UI
++              txbyteclkhs clock = 8 times UI
++              Tlpx = 1 / txclkesc
++              CALCULATION OF LOW POWER TO HIGH SPEED SWITCH COUNT VALUE (from Standard D-PHY spec)
++                      LP01 + LP00 + HS0 = 1Tlpx + 1Tlpx + 3Tlpx [Approx] + 1DDR clock [2UI] + 1txbyteclkhs clock [8UI]
++              CALCULATION OF  HIGH SPEED  TO LOW POWER SWITCH COUNT VALUE (from Standard D-PHY spec)
++                      Ths-trail = 1txbyteclkhs clock [8UI] + 5DDR clock [10UI] + 4 Tlpx [Approx]
++\* ************************************************************************* */
++static u32 GetHighLowSwitchCount(DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 HighLowSwitchCount, HighToLowSwitchCount, LowToHighSwitchCount;
++
++/* ************************************************************************* *\
++      CALCULATION OF  HIGH SPEED  TO LOW POWER SWITCH COUNT VALUE (from Standard D-PHY spec)
++      Ths-trail = 1txbyteclkhs clock [8UI] + 5DDR clock [10UI] + 4 Tlpx [Approx]
++
++      Tlpx = 50 ns, Using max txclkesc (20MHz)
++
++      txbyteclkhs_period = 4000 / dev_priv->DDR_Clock; in ns
++      UI_period = 500 / dev_priv->DDR_Clock; in ns
++
++      HS_to_LP = Ths-trail = 18 * UI_period  + 4 * Tlpx
++                      = 9000 / dev_priv->DDR_Clock + 200;
++
++      HighToLowSwitchCount = HS_to_LP / txbyteclkhs_period
++                      = (9000 / dev_priv->DDR_Clock + 200) / (4000 / dev_priv->DDR_Clock)
++                      = (9000 + (200 *  dev_priv->DDR_Clock)) / 4000
++                      
++\* ************************************************************************* */
++      HighToLowSwitchCount = (9000 + (200 *  dev_priv->DDR_Clock)) / 4000     + 1;
++
++/* ************************************************************************* *\
++      CALCULATION OF LOW POWER TO HIGH SPEED SWITCH COUNT VALUE (from Standard D-PHY spec)
++      LP01 + LP00 + HS0 = 1Tlpx + 1Tlpx + 3Tlpx [Approx] + 1DDR clock [2UI] + 1txbyteclkhs clock [8UI]
++
++      LP_to_HS = 10 * UI_period + 5 * Tlpx =
++                      = 5000 / dev_priv->DDR_Clock + 250;
++
++      LowToHighSwitchCount = LP_to_HS / txbyteclkhs_period
++                      = (5000 / dev_priv->DDR_Clock + 250) / (4000 / dev_priv->DDR_Clock)
++                      = (5000 + (250 *  dev_priv->DDR_Clock)) / 4000
++                      
++\* ************************************************************************* */
++      LowToHighSwitchCount = (5000 + (250 *  dev_priv->DDR_Clock)) / 4000     + 1;
++
++      if (HighToLowSwitchCount > LowToHighSwitchCount)
++      {
++              HighLowSwitchCount = HighToLowSwitchCount;
++      }
++      else
++      {
++              HighLowSwitchCount = LowToHighSwitchCount;
++      }
++      
++
++      /* FIXME jliu need to fine tune the above formulae and remove the following after power on */
++      if (HighLowSwitchCount < 0x1f)
++              HighLowSwitchCount = 0x1f;
++
++      return HighLowSwitchCount;
++}
++
++/* ************************************************************************* *\
++FUNCTION: mrst_gen_long_write
++                                                                                                                              `
++DESCRIPTION:
++
++\* ************************************************************************* */
++static void   mrst_gen_long_write(struct drm_device *dev, u32 *data, u16 wc,u8 vc)
++{
++      u32 gen_data_reg = HS_GEN_DATA_REG;
++      u32 gen_ctrl_reg = HS_GEN_CTRL_REG;
++      u32 date_full_bit = HS_DATA_FIFO_FULL;
++      u32 control_full_bit = HS_CTRL_FIFO_FULL;
++      u16 wc_saved = wc;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter mrst_gen_long_write \n");
++#endif /* PRINT_JLIU7 */
++
++      /* sanity check */
++      if (vc > 4)
++      {
++              DRM_ERROR(KERN_ERR "MIPI Virtual channel Can't greater than 4. \n");
++              return;
++      }
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      if (0) /* FIXME JLIU7 check if it is in LP*/
++      {
++              gen_data_reg = LP_GEN_DATA_REG;
++              gen_ctrl_reg = LP_GEN_CTRL_REG;
++              date_full_bit = LP_DATA_FIFO_FULL;
++              control_full_bit = LP_CTRL_FIFO_FULL;
++      }
++      
++      while (wc >= 4)
++      {
++              /* Check if MIPI IP generic data fifo is not full */
++              while ((REG_READ(GEN_FIFO_STAT_REG) & date_full_bit) == date_full_bit);
++      
++              /* write to data buffer */      
++          REG_WRITE(gen_data_reg, *data);
++
++              wc -= 4;
++              data ++;
++      }
++
++      switch (wc)
++      {
++      case 1:
++              REG_WRITE8(gen_data_reg, *((u8 *)data));
++              break;
++      case 2:
++              REG_WRITE16(gen_data_reg, *((u16 *)data));
++              break;
++      case 3:
++              REG_WRITE16(gen_data_reg, *((u16 *)data));
++              data = (u32*)((u8*) data + 2);
++              REG_WRITE8(gen_data_reg, *((u8 *)data));
++              break;
++      }       
++
++      /* Check if MIPI IP generic control fifo is not full */
++      while ((REG_READ(GEN_FIFO_STAT_REG) & control_full_bit) == control_full_bit);
++      /* write to control buffer */           
++      REG_WRITE(gen_ctrl_reg, 0x29 | (wc_saved << 8) | (vc << 6));
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++/* ************************************************************************* *\
++FUNCTION: mrst_init_HIMAX_MIPI_bridge
++                                                                                                                              `
++DESCRIPTION:
++
++\* ************************************************************************* */
++static void   mrst_init_HIMAX_MIPI_bridge(struct drm_device *dev)
++{
++      u32 gen_data[2];
++      u16 wc = 0;
++      u8 vc =0;
++      u32 gen_data_intel = 0x200105;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter mrst_init_HIMAX_MIPI_bridge \n");
++#endif /* PRINT_JLIU7 */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      /* exit sleep mode */
++      wc = 0x5;
++      gen_data[0] = gen_data_intel | (0x11 << 24);    
++      gen_data[1] = 0;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_pixel_format */
++      gen_data[0] = gen_data_intel | (0x3A << 24);    
++      gen_data[1] = 0x77;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* Set resolution for (800X480) */
++      wc = 0x8;
++      gen_data[0] = gen_data_intel | (0x2A << 24);    
++      gen_data[1] = 0x1F030000;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[0] = gen_data_intel | (0x2B << 24);    
++      gen_data[1] = 0xDF010000;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* System control */
++      wc = 0x6;
++      gen_data[0] = gen_data_intel | (0xEE << 24);    
++      gen_data[1] = 0x10FA;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* INPUT TIMING FOR TEST PATTERN(800X480) */
++      /* H-size */
++      gen_data[1] = 0x2000;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0301;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* V-size */
++      gen_data[1] = 0xE002;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0103;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* H-total */
++      gen_data[1] = 0x2004;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0405;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* V-total */
++      gen_data[1] = 0x0d06;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0207;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* H-blank */
++      gen_data[1] = 0x0308;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0009;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* H-blank */
++      gen_data[1] = 0x030A;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x000B;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* H-start */
++      gen_data[1] = 0xD80C;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x000D;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* V-start */
++      gen_data[1] = 0x230E;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x000F;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* RGB domain */
++      gen_data[1] = 0x0027;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* INP_FORM Setting */
++      /* set_1 */
++      gen_data[1] = 0x1C10;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_2 */
++      gen_data[1] = 0x0711;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_3 */
++      gen_data[1] = 0x0012;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_4 */
++      gen_data[1] = 0x0013;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_5 */
++      gen_data[1] = 0x2314;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_6 */
++      gen_data[1] = 0x0015;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_7 */
++      gen_data[1] = 0x2316;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_8 */
++      gen_data[1] = 0x0017;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* set_1 */
++      gen_data[1] = 0x0330;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* FRC Setting */
++      /* FRC_set_2 */
++      gen_data[1] = 0x237A;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* FRC_set_3 */
++      gen_data[1] = 0x4C7B;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* FRC_set_4 */
++      gen_data[1] = 0x037C;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* FRC_set_5 */
++      gen_data[1] = 0x3482;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* FRC_set_7 */
++      gen_data[1] = 0x1785;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++#if 0
++      /* FRC_set_8 */
++      gen_data[1] = 0xD08F;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++#endif
++
++      /* OUTPUT TIMING FOR TEST PATTERN (800X480) */
++      /* out_htotal */
++      gen_data[1] = 0x2090;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0491;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                                              
++      /* out_hsync */
++      gen_data[1] = 0x0392;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0093;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                                              
++      /* out_hstart */
++      gen_data[1] = 0xD894;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0095;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                                              
++      /* out_hsize */
++      gen_data[1] = 0x2096;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0397;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                                              
++      /* out_vtotal */
++      gen_data[1] = 0x0D98;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x0299;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                                              
++      /* out_vsync */
++      gen_data[1] = 0x039A;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x009B;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                                              
++      /* out_vstart */
++      gen_data[1] = 0x239C;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x009D;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                                              
++      /* out_vsize */
++      gen_data[1] = 0xE09E;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x019F;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                                              
++      /* FRC_set_6 */
++      gen_data[1] = 0x9084;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* Other setting */
++      gen_data[1] = 0x0526;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                              
++      /* RBG domain */
++      gen_data[1] = 0x1177;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* rgbw */
++      /* set_1 */
++      gen_data[1] = 0xD28F;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                              
++      /* set_2 */
++      gen_data[1] = 0x02D0;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                              
++      /* set_3 */
++      gen_data[1] = 0x08D1;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                              
++      /* set_4 */
++      gen_data[1] = 0x05D2;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                              
++      /* set_5 */
++      gen_data[1] = 0x24D4;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                              
++      /* set_6 */
++      gen_data[1] = 0x00D5;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x02D7;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x00D8;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++                                              
++      gen_data[1] = 0x48F3;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0xD4F2;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x3D8E;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x60FD;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x00B5;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++      gen_data[1] = 0x48F4;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      /* inside patten */                                             
++      gen_data[1] = 0x0060;
++      mrst_gen_long_write(dev, gen_data, wc, vc);
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++#endif
++static void mrst_wait_for_LP_CTRL_FIFO(struct drm_device *dev)
++{
++       while(REG_READ(GEN_FIFO_STAT_REG) & LP_CTRL_FIFO_FULL);
++}
++
++/* ************************************************************************* *\
++FUNCTION: mrst_init_NSC_MIPI_bridge
++                                                                                                                              `
++DESCRIPTION:
++
++\* ************************************************************************* */
++static void   mrst_init_NSC_MIPI_bridge(struct drm_device *dev)
++{
++
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter mrst_init_NSC_MIPI_bridge.\n");
++#endif /* PRINT_JLIU7 */
++      /* Program MIPI IP to 50MHz DSI, Non-Burst mode with sync event,
++              1 or 2 Data Lanes */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      /* enable RGB24*/
++      REG_WRITE(LP_GEN_CTRL_REG, 0x003205e3);
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      /* enable all error reporting*/
++      REG_WRITE(LP_GEN_CTRL_REG, 0x000040e3);
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      REG_WRITE(LP_GEN_CTRL_REG, 0x000041e3);
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      /* enable 2 data lane; video shaping & error reporting */
++      REG_WRITE(LP_GEN_CTRL_REG, 0x00a842e3); /* 0x006842e3 for 1 data lane */
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      /* HS timeout */
++      REG_WRITE(LP_GEN_CTRL_REG, 0x009243e3);
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      /* setle = 6h; low power timeout = ((2^21)-1)*4TX_esc_clks. */
++      REG_WRITE(LP_GEN_CTRL_REG, 0x00e645e3);
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      /* enable all virtual channels */
++      REG_WRITE(LP_GEN_CTRL_REG, 0x000f46e3);
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      /* set output strength to low-drive */
++      REG_WRITE(LP_GEN_CTRL_REG, 0x00007de3);
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      if (dev_priv->sku_83)
++      {
++              /* set escape clock to divede by 8 */
++              REG_WRITE(LP_GEN_CTRL_REG, 0x000044e3);
++      }
++      else if(dev_priv->sku_100L)
++      {
++              /* set escape clock to divede by 16 */
++              REG_WRITE(LP_GEN_CTRL_REG, 0x001044e3);
++      }
++      else if(dev_priv->sku_100)
++      {
++              /* set escape clock to divede by 32*/
++              REG_WRITE(LP_GEN_CTRL_REG, 0x003044e3);
++
++              mrst_wait_for_LP_CTRL_FIFO(dev);
++              /* setle = 6h; low power timeout = ((2^21)-1)*4TX_esc_clks. */
++              REG_WRITE(LP_GEN_CTRL_REG, 0x00ec45e3);
++      }
++
++      mrst_wait_for_LP_CTRL_FIFO(dev);
++      /* CFG_VALID=1; RGB_CLK_EN=1. */
++      REG_WRITE(LP_GEN_CTRL_REG, 0x00057fe3);
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++static void mrst_dsi_mode_set(struct drm_encoder *encoder,
++                              struct drm_display_mode *mode,
++                              struct drm_display_mode *adjusted_mode)
++{
++      struct drm_device *dev = encoder->dev;
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++      u32 dsiFuncPrgValue = 0;
++      u32 SupportedFormat = 0;
++      u32 channelNumber = 0;
++      u32 DBI_dataWidth = 0;
++      u32 resolution = 0;
++      u32 mipiport = 0;
++      uint64_t curValue = DRM_MODE_SCALE_FULLSCREEN;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter  mrst_dsi_mode_set \n");
++#endif /* PRINT_JLIU7 */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      switch (dev_priv->bpp)
++      {
++      case 16:
++              SupportedFormat = RGB_565_FMT;
++              break;
++      case 18:
++              SupportedFormat = RGB_666_FMT;
++              break;
++      case 24:
++              SupportedFormat = RGB_888_FMT;
++              break;
++      default:
++              DRM_INFO("mrst_dsi_mode_set,  invalid bpp \n");
++              break;
++      }
++
++      resolution = dev_priv->HactiveArea | (dev_priv->VactiveArea << RES_V_POS);
++
++      if (dev_priv->dpi)
++      {
++              drm_connector_property_get_value(&enc_to_psb_intel_output(encoder)->base, dev->mode_config.scaling_mode_property, &curValue);
++
++              if (curValue == DRM_MODE_SCALE_NO_SCALE)
++                      REG_WRITE(PFIT_CONTROL, 0);
++              else if (curValue == DRM_MODE_SCALE_ASPECT) {
++                      if ((mode->vdisplay != adjusted_mode->crtc_vdisplay) || (mode->hdisplay != adjusted_mode->crtc_hdisplay)) {
++                              if ((adjusted_mode->crtc_hdisplay * mode->vdisplay) == (mode->hdisplay * adjusted_mode->crtc_vdisplay))
++                                      REG_WRITE(PFIT_CONTROL, PFIT_ENABLE);
++                              else if ((adjusted_mode->crtc_hdisplay * mode->vdisplay) > (mode->hdisplay * adjusted_mode->crtc_vdisplay))
++                                      REG_WRITE(PFIT_CONTROL, PFIT_ENABLE | PFIT_SCALING_MODE_PILLARBOX);
++                              else
++                                      REG_WRITE(PFIT_CONTROL, PFIT_ENABLE | PFIT_SCALING_MODE_LETTERBOX);
++                      } else
++                              REG_WRITE(PFIT_CONTROL, PFIT_ENABLE);
++              } else /*(curValue == DRM_MODE_SCALE_FULLSCREEN)*/
++                      REG_WRITE(PFIT_CONTROL, PFIT_ENABLE);
++
++              /* Enable MIPI Port */
++              mipiport = MIPI_PORT_EN | MIPI_BORDER_EN;
++              REG_WRITE(MIPI, mipiport);
++
++              /* JLIU7_FIXME set MIPI clock ratio to 1:1 for NSC init */
++              REG_WRITE(MIPI_CONTROL_REG, 0x00000018);
++              
++              /* Enable all the error interrupt */
++              REG_WRITE(INTR_EN_REG, 0xffffffff);
++              REG_WRITE(TURN_AROUND_TIMEOUT_REG, 0x0000000A);
++              REG_WRITE(DEVICE_RESET_REG, 0x000000ff); /* old value = 0x00000015 may depends on the DSI RX device*/
++              REG_WRITE(INIT_COUNT_REG, 0x00000fff); /* Minimum value = 0x000007d0 */
++
++              SupportedFormat <<= FMT_DPI_POS;
++              dsiFuncPrgValue = dev_priv->laneCount | SupportedFormat;
++              REG_WRITE(DSI_FUNC_PRG_REG, dsiFuncPrgValue);
++
++              REG_WRITE(DPI_RESOLUTION_REG, resolution);
++              /*REG_WRITE(DBI_RESOLUTION_REG, 0x00000000);*/
++
++              REG_WRITE(VERT_SYNC_PAD_COUNT_REG, GetVSA_Count(dev, dev_priv));
++              REG_WRITE(VERT_BACK_PORCH_COUNT_REG,
++                                      GetVBP_Count(dev, dev_priv));
++              REG_WRITE(VERT_FRONT_PORCH_COUNT_REG,
++                                      GetVFP_Count(dev, dev_priv));
++
++              REG_WRITE(HORIZ_SYNC_PAD_COUNT_REG,
++                                      GetHSA_Count(dev, dev_priv));
++              REG_WRITE(HORIZ_BACK_PORCH_COUNT_REG,
++                                      GetHBP_Count(dev, dev_priv));
++              REG_WRITE(HORIZ_FRONT_PORCH_COUNT_REG,
++                                      GetHFP_Count(dev, dev_priv));
++              REG_WRITE(HORIZ_ACTIVE_AREA_COUNT_REG,
++                                      GetHAdr_Count(dev, dev_priv));
++
++              REG_WRITE(VIDEO_FMT_REG, dev_priv->videoModeFormat);
++      }
++      else
++      {
++              /* JLIU7 FIXME VIRTUAL_CHANNEL_NUMBER_1 or VIRTUAL_CHANNEL_NUMBER_0*/
++              channelNumber = VIRTUAL_CHANNEL_NUMBER_1 << DBI_CHANNEL_NUMBER_POS;
++              DBI_dataWidth = DBI_DATA_WIDTH_16BIT << DBI_DATA_WIDTH_POS;
++              dsiFuncPrgValue = dev_priv->laneCount | channelNumber | DBI_dataWidth;
++              /* JLIU7 FIXME */
++              SupportedFormat <<= FMT_DBI_POS;
++              dsiFuncPrgValue |= SupportedFormat;
++              REG_WRITE(DSI_FUNC_PRG_REG, dsiFuncPrgValue);
++
++              REG_WRITE(DPI_RESOLUTION_REG, 0x00000000);
++              REG_WRITE(DBI_RESOLUTION_REG, resolution);
++      }
++
++#if 1 /*JLIU7_PO hard code for NSC PO */
++      REG_WRITE(HS_TX_TIMEOUT_REG, 0x90000);
++      REG_WRITE(LP_RX_TIMEOUT_REG, 0xffff);
++
++      REG_WRITE(HIGH_LOW_SWITCH_COUNT_REG, 0x46);
++#else /*JLIU7_PO hard code for NSC PO */
++      REG_WRITE(HS_TX_TIMEOUT_REG, GetHS_TX_timeoutCount(dev_priv));
++      REG_WRITE(LP_RX_TIMEOUT_REG, GetLP_RX_timeoutCount(dev_priv));
++
++      REG_WRITE(HIGH_LOW_SWITCH_COUNT_REG, GetHighLowSwitchCount(dev_priv));
++#endif /*JLIU7_PO hard code for NSC PO */
++
++
++      REG_WRITE(EOT_DISABLE_REG, 0x00000000);
++
++      /* FIXME JLIU7 for NSC PO */
++      REG_WRITE(LP_BYTECLK_REG, 0x00000004);
++      
++      REG_WRITE(DEVICE_READY_REG, 0x00000001);
++      REG_WRITE(DPI_CONTROL_REG, 0x00000002); /* Turn On */
++
++      dev_priv->dsi_device_ready = true;
++
++#if 0 /*JLIU7_PO */
++      mrst_init_HIMAX_MIPI_bridge(dev);       
++#endif /*JLIU7_PO */
++      mrst_init_NSC_MIPI_bridge(dev); 
++
++        if (dev_priv->sku_100L)
++              /* Set DSI link to 100MHz; 2:1 clock ratio */
++              REG_WRITE(MIPI_CONTROL_REG, 0x00000009);
++
++      REG_WRITE(PIPEACONF, dev_priv->pipeconf);
++      REG_READ(PIPEACONF);
++      
++      /* Wait for 20ms for the pipe enable to take effect. */
++      udelay(20000);
++
++      REG_WRITE(DSPACNTR, dev_priv->dspcntr);
++
++      /* Wait for 20ms for the plane enable to take effect. */
++      udelay(20000);
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++/**
++ * Detect the MIPI connection.
++ *
++ * This always returns CONNECTOR_STATUS_CONNECTED.
++ * This connector should only have
++ * been set up if the MIPI was actually connected anyway.
++ */
++static enum drm_connector_status mrst_dsi_detect(struct drm_connector
++                                                 *connector)
++{
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter  mrst_dsi_detect \n");
++#endif /* PRINT_JLIU7 */
++
++      return connector_status_connected;
++}
++
++/**
++ * Return the list of MIPI DDB modes if available.
++ */
++static int mrst_dsi_get_modes(struct drm_connector *connector)
++{
++      struct drm_device *dev = connector->dev;
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++      struct psb_intel_mode_device *mode_dev = psb_intel_output->mode_dev;
++
++/* FIXME get the MIPI DDB modes */
++
++      /* Didn't get an DDB, so
++       * Set wide sync ranges so we get all modes
++       * handed to valid_mode for checking
++       */
++      connector->display_info.min_vfreq = 0;
++      connector->display_info.max_vfreq = 200;
++      connector->display_info.min_hfreq = 0;
++      connector->display_info.max_hfreq = 200;
++
++      if (mode_dev->panel_fixed_mode != NULL) {
++              struct drm_display_mode *mode =
++                  drm_mode_duplicate(dev, mode_dev->panel_fixed_mode);
++              drm_mode_probed_add(connector, mode);
++              return 1;
++      }
++
++      return 0;
++}
++
++static const struct drm_encoder_helper_funcs mrst_dsi_helper_funcs = {
++      .dpms = mrst_dsi_dpms,
++      .mode_fixup = psb_intel_lvds_mode_fixup,
++      .prepare = mrst_dsi_prepare,
++      .mode_set = mrst_dsi_mode_set,
++      .commit = mrst_dsi_commit,
++};
++
++static const struct drm_connector_helper_funcs
++    mrst_dsi_connector_helper_funcs = {
++      .get_modes = mrst_dsi_get_modes,
++      .mode_valid = psb_intel_lvds_mode_valid,
++      .best_encoder = psb_intel_best_encoder,
++};
++
++static const struct drm_connector_funcs mrst_dsi_connector_funcs = {
++      .dpms = psb_intel_lvds_connector_dpms,
++      .save = mrst_dsi_save,
++      .restore = mrst_dsi_restore,
++      .detect = mrst_dsi_detect,
++      .fill_modes = drm_helper_probe_single_connector_modes,
++      .set_property = psb_intel_lvds_set_property,
++      .destroy = psb_intel_lvds_destroy,
++};
++
++/** Returns the panel fixed mode from configuration. */
++/** FIXME JLIU7 need to revist it. */
++struct drm_display_mode *mrst_dsi_get_configuration_mode(struct drm_device *dev)
++{
++      struct drm_display_mode *mode;
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *) dev->dev_private;
++      u8 panel_index = dev_priv->gct_data.bpi;
++      u8 panel_type = dev_priv->gct_data.pt;
++      struct mrst_timing_info *ti = &dev_priv->gct_data.DTD;
++      bool use_gct = false;
++
++      mode = kzalloc(sizeof(*mode), GFP_KERNEL);
++      if (!mode)
++              return NULL;
++
++      if (dev_priv->vbt_data.Size != 0x00) /*if non-zero, vbt is present*/
++              if ((1<<panel_index) & panel_type) /* if non-zero,*/
++                      use_gct = true;                 /*then mipi panel.*/
++
++      if (use_gct) {
++              mode->hdisplay = (ti->hactive_hi << 8) | ti->hactive_lo;
++              mode->vdisplay = (ti->vactive_hi << 8) | ti->vactive_lo;
++              mode->hsync_start = mode->hdisplay + \
++                              ((ti->hsync_offset_hi << 8) | \
++                              ti->hsync_offset_lo);
++              mode->hsync_end = mode->hsync_start + \
++                              ((ti->hsync_pulse_width_hi << 8) | \
++                              ti->hsync_pulse_width_lo);
++              mode->htotal = mode->hdisplay + ((ti->hblank_hi << 8) | \
++                                                              ti->hblank_lo);
++              mode->vsync_start = \
++                      mode->vdisplay + ((ti->vsync_offset_hi << 8) | \
++                                              ti->vsync_offset_lo);
++              mode->vsync_end = \
++                      mode->vsync_start + ((ti->vsync_pulse_width_hi << 8) | \
++                                              ti->vsync_pulse_width_lo);
++              mode->vtotal = mode->vdisplay + \
++                              ((ti->vblank_hi << 8) | ti->vblank_lo);
++              mode->clock = ti->pixel_clock * 10;
++#if 1
++              printk(KERN_INFO "hdisplay is %d\n", mode->hdisplay);
++              printk(KERN_INFO "vdisplay is %d\n", mode->vdisplay);
++              printk(KERN_INFO "HSS is %d\n", mode->hsync_start);
++              printk(KERN_INFO "HSE is %d\n", mode->hsync_end);
++              printk(KERN_INFO "htotal is %d\n", mode->htotal);
++              printk(KERN_INFO "VSS is %d\n", mode->vsync_start);
++              printk(KERN_INFO "VSE is %d\n", mode->vsync_end);
++              printk(KERN_INFO "vtotal is %d\n", mode->vtotal);
++              printk(KERN_INFO "clock is %d\n", mode->clock);
++#endif
++
++      } else {
++#if 1 /*FIXME jliu7 remove it later */
++          /* copy from SV - hard coded fixed mode for DSI TPO TD043MTEA2 LCD panel */
++      mode->hdisplay = 800;
++      mode->vdisplay = 480;
++      mode->hsync_start = 808;
++      mode->hsync_end = 848;
++      mode->htotal = 880;
++      mode->vsync_start = 482;
++      mode->vsync_end = 483;
++      mode->vtotal = 486;
++      mode->clock = 33264;
++#endif  /*FIXME jliu7 remove it later */
++
++#if 0 /*FIXME jliu7 remove it later */
++          /* hard coded fixed mode for DSI TPO TD043MTEA2 LCD panel */
++      mode->hdisplay = 800;
++      mode->vdisplay = 480;
++      mode->hsync_start = 836;
++      mode->hsync_end = 846;
++      mode->htotal = 1056;
++      mode->vsync_start = 489;
++      mode->vsync_end = 491;
++      mode->vtotal = 525;
++      mode->clock = 33264;
++#endif  /*FIXME jliu7 remove it later */
++
++#if 0 /*FIXME jliu7 remove it later */
++          /* hard coded fixed mode for LVDS 800x480 */
++      mode->hdisplay = 800;
++      mode->vdisplay = 480;
++      mode->hsync_start = 801;
++      mode->hsync_end = 802;
++      mode->htotal = 1024;
++      mode->vsync_start = 481;
++      mode->vsync_end = 482;
++      mode->vtotal = 525;
++      mode->clock = 30994;
++#endif  /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it later, jliu7 modify it according to the spec */
++      /* hard coded fixed mode for Samsung 480wsvga LVDS 1024x600@75 */
++      mode->hdisplay = 1024;
++      mode->vdisplay = 600;
++      mode->hsync_start = 1072;
++      mode->hsync_end = 1104;
++      mode->htotal = 1184;
++      mode->vsync_start = 603;
++      mode->vsync_end = 604;
++      mode->vtotal = 608;
++      mode->clock = 53990;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it, it is copied from SBIOS */
++      /* hard coded fixed mode for Samsung 480wsvga LVDS 1024x600@75 */
++      mode->hdisplay = 1024;
++      mode->vdisplay = 600;
++      mode->hsync_start = 1104;
++      mode->hsync_end = 1136;
++      mode->htotal = 1184;
++      mode->vsync_start = 603;
++      mode->vsync_end = 604;
++      mode->vtotal = 608;
++      mode->clock = 53990;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it later */
++      /* hard coded fixed mode for Sharp wsvga LVDS 1024x600 */
++      mode->hdisplay = 1024;
++      mode->vdisplay = 600;
++      mode->hsync_start = 1124;
++      mode->hsync_end = 1204;
++      mode->htotal = 1312;
++      mode->vsync_start = 607;
++      mode->vsync_end = 610;
++      mode->vtotal = 621;
++      mode->clock = 48885;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it later */
++      /* hard coded fixed mode for LVDS 1024x768 */
++      mode->hdisplay = 1024;
++      mode->vdisplay = 768;
++      mode->hsync_start = 1048;
++      mode->hsync_end = 1184;
++      mode->htotal = 1344;
++      mode->vsync_start = 771;
++      mode->vsync_end = 777;
++      mode->vtotal = 806;
++      mode->clock = 65000;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it later */
++      /* hard coded fixed mode for LVDS 1366x768 */
++      mode->hdisplay = 1366;
++      mode->vdisplay = 768;
++      mode->hsync_start = 1430;
++      mode->hsync_end = 1558;
++      mode->htotal = 1664;
++      mode->vsync_start = 769;
++      mode->vsync_end = 770;
++      mode->vtotal = 776;
++      mode->clock = 77500;
++#endif                                /*FIXME jliu7 remove it later */
++      }
++      drm_mode_set_name(mode);
++      drm_mode_set_crtcinfo(mode, 0);
++
++      return mode;
++}
++
++/* ************************************************************************* *\
++FUNCTION: mrstDSI_clockInit
++                                                                                                                              `
++DESCRIPTION:
++
++\* ************************************************************************* */
++static u32 sku_83_mipi_2xclk[4] = {166667, 333333, 444444, 666667};
++static u32 sku_100_mipi_2xclk[4] = {200000, 400000, 533333, 800000};
++static u32 sku_100L_mipi_2xclk[4] = {100000, 200000, 266667, 400000};
++#define MIPI_2XCLK_COUNT                      0x04
++
++static bool mrstDSI_clockInit(DRM_DRIVER_PRIVATE_T *dev_priv)
++{
++      u32 Htotal = 0, Vtotal = 0, RRate = 0, mipi_2xclk = 0;
++      u32 i = 0;
++      u32 *p_mipi_2xclk = NULL;
++
++#if 0 /* JLIU7_PO old values */
++      /* FIXME jliu7 DPI hard coded for TPO TD043MTEA2 LCD panel */
++    dev_priv->pixelClock = 33264; /*KHz*/
++    dev_priv->HsyncWidth = 10;
++    dev_priv->HbackPorch = 210;
++    dev_priv->HfrontPorch = 36;
++    dev_priv->HactiveArea = 800;
++    dev_priv->VsyncWidth = 2;
++    dev_priv->VbackPorch = 34;
++    dev_priv->VfrontPorch = 9;
++    dev_priv->VactiveArea = 480;
++    dev_priv->bpp = 24;
++
++      /* FIXME jliu7 DBI hard coded for TPO TD043MTEA2 LCD panel */
++    dev_priv->dbi_pixelClock = 33264; /*KHz*/
++    dev_priv->dbi_HsyncWidth = 10;
++    dev_priv->dbi_HbackPorch = 210;
++    dev_priv->dbi_HfrontPorch = 36;
++    dev_priv->dbi_HactiveArea = 800;
++    dev_priv->dbi_VsyncWidth = 2;
++    dev_priv->dbi_VbackPorch = 34;
++    dev_priv->dbi_VfrontPorch = 9;
++    dev_priv->dbi_VactiveArea = 480;
++    dev_priv->dbi_bpp = 24;
++#else /* JLIU7_PO old values */
++    /* FIXME jliu7 DPI hard coded for TPO TD043MTEA2 LCD panel */
++    /* FIXME Pre-Si value, 1 or 2 lanes; 50MHz; Non-Burst w/ sync event */
++    dev_priv->pixelClock = 33264; /*KHz*/
++    dev_priv->HsyncWidth = 10;
++    dev_priv->HbackPorch = 8;
++    dev_priv->HfrontPorch = 3;
++    dev_priv->HactiveArea = 800;
++    dev_priv->VsyncWidth = 2;
++    dev_priv->VbackPorch = 3;
++    dev_priv->VfrontPorch = 2;
++    dev_priv->VactiveArea = 480;
++    dev_priv->bpp = 24;
++
++      /* FIXME jliu7 DBI hard coded for TPO TD043MTEA2 LCD panel */
++    dev_priv->dbi_pixelClock = 33264; /*KHz*/
++    dev_priv->dbi_HsyncWidth = 10;
++    dev_priv->dbi_HbackPorch = 8;
++    dev_priv->dbi_HfrontPorch = 3;
++    dev_priv->dbi_HactiveArea = 800;
++    dev_priv->dbi_VsyncWidth = 2;
++    dev_priv->dbi_VbackPorch = 3;
++    dev_priv->dbi_VfrontPorch = 2;
++    dev_priv->dbi_VactiveArea = 480;
++    dev_priv->dbi_bpp = 24;
++#endif  /* JLIU7_PO old values */
++
++      Htotal = dev_priv->HsyncWidth + dev_priv->HbackPorch + dev_priv->HfrontPorch + dev_priv->HactiveArea;
++      Vtotal = dev_priv->VsyncWidth + dev_priv->VbackPorch + dev_priv->VfrontPorch + dev_priv->VactiveArea;
++      
++      RRate = ((dev_priv->pixelClock * 1000) / (Htotal * Vtotal)) + 1;
++
++      dev_priv->RRate = RRate;
++
++      /* ddr clock frequence = (pixel clock frequence *  bits per pixel)/2*/
++      mipi_2xclk = (dev_priv->pixelClock * dev_priv->bpp) / dev_priv->laneCount; /* KHz */
++    dev_priv->DDR_Clock_Calculated = mipi_2xclk / 2; /* KHz */
++
++      DRM_DEBUG("mrstDSI_clockInit RRate = %d, mipi_2xclk = %d. \n", RRate, mipi_2xclk);
++
++      if (dev_priv->sku_100)
++      {
++              p_mipi_2xclk = sku_100_mipi_2xclk;
++      }
++      else if (dev_priv->sku_100L)
++      {
++              p_mipi_2xclk = sku_100L_mipi_2xclk;
++      }
++      else
++      {
++              p_mipi_2xclk = sku_83_mipi_2xclk;
++      }
++
++      for (; i < MIPI_2XCLK_COUNT; i++)
++      {
++              if ((dev_priv->DDR_Clock_Calculated * 2) < p_mipi_2xclk[i])
++                      break;
++      }
++
++      if (i == MIPI_2XCLK_COUNT)
++      {
++              DRM_DEBUG("mrstDSI_clockInit the DDR clock is too big, DDR_Clock_Calculated is = %d\n", dev_priv->DDR_Clock_Calculated);
++              return false;
++      }
++      
++      dev_priv->DDR_Clock = p_mipi_2xclk[i] / 2;
++      dev_priv->ClockBits = i;
++
++#if 1 /* FIXME remove it after power on*/
++      DRM_DEBUG("mrstDSI_clockInit, mipi_2x_clock_divider = 0x%x, DDR_Clock_Calculated is = %d\n", i, dev_priv->DDR_Clock_Calculated);
++#endif  /* FIXME remove it after power on*/
++
++      return true;
++}
++
++/**
++ * mrst_dsi_init - setup MIPI connectors on this device
++ * @dev: drm device
++ *
++ * Create the connector, try to figure out what
++ * modes we can display on the MIPI panel (if present).
++ */
++void mrst_dsi_init(struct drm_device *dev,
++                  struct psb_intel_mode_device *mode_dev)
++{
++      DRM_DRIVER_PRIVATE_T *dev_priv = dev->dev_private;
++      struct psb_intel_output *psb_intel_output;
++      struct drm_connector *connector;
++      struct drm_encoder *encoder;
++
++#if PRINT_JLIU7
++     DRM_INFO("JLIU7 enter mrst_dsi_init \n");
++#endif /* PRINT_JLIU7 */
++
++      psb_intel_output = kzalloc(sizeof(struct psb_intel_output), GFP_KERNEL);
++      if (!psb_intel_output)
++              return;
++
++      psb_intel_output->mode_dev = mode_dev;
++      connector = &psb_intel_output->base;
++      encoder = &psb_intel_output->enc;
++      drm_connector_init(dev, &psb_intel_output->base,
++                         &mrst_dsi_connector_funcs,
++                         DRM_MODE_CONNECTOR_MIPI);
++
++      drm_encoder_init(dev, &psb_intel_output->enc, &psb_intel_lvds_enc_funcs,
++                       DRM_MODE_ENCODER_MIPI);
++
++      drm_mode_connector_attach_encoder(&psb_intel_output->base,
++                                        &psb_intel_output->enc);
++      psb_intel_output->type = INTEL_OUTPUT_MIPI;
++
++      drm_encoder_helper_add(encoder, &mrst_dsi_helper_funcs);
++      drm_connector_helper_add(connector,
++                               &mrst_dsi_connector_helper_funcs);
++      connector->display_info.subpixel_order = SubPixelHorizontalRGB;
++      connector->interlace_allowed = false;
++      connector->doublescan_allowed = false;
++
++      drm_connector_attach_property(connector, dev->mode_config.scaling_mode_property, DRM_MODE_SCALE_FULLSCREEN);
++      drm_connector_attach_property(connector, dev_priv->backlight_property, BRIGHTNESS_MAX_LEVEL);
++
++      dsi_backlight = BRIGHTNESS_MAX_LEVEL;
++      blc_pol = BLC_POLARITY_NORMAL;
++      blc_freq = 0xc8;
++
++      /*
++       * MIPI discovery:
++       * 1) check for DDB data
++       * 2) check for VBT data
++       * 4) make sure lid is open
++       *    if closed, act like it's not there for now
++       */
++
++      /* FIXME jliu7 we only support DPI */
++    dev_priv->dpi = true;
++
++      /* FIXME hard coded 4 lanes for Himax HX8858-A, 2 lanes for NSC LM2550 */
++    dev_priv->laneCount = 2;
++
++      /* FIXME hard coded for NSC PO. */
++      /* We only support BUST_MODE */
++    dev_priv->videoModeFormat =  NON_BURST_MODE_SYNC_EVENTS; /*       BURST_MODE */
++      /* FIXME change it to true if GET_DDB works */
++    dev_priv->config_phase = false;
++
++      if (!mrstDSI_clockInit(dev_priv))
++      {
++              DRM_DEBUG("Can't iniitialize MRST DSI clock.\n");
++#if 0 /* FIXME JLIU7 */
++              goto failed_find;
++#endif /* FIXME JLIU7 */
++      }
++
++      /*
++       * If we didn't get DDB data, try geting panel timing
++       * from configuration data
++       */
++      mode_dev->panel_fixed_mode = mrst_dsi_get_configuration_mode(dev);
++
++      if (mode_dev->panel_fixed_mode) {
++              mode_dev->panel_fixed_mode->type |=
++                  DRM_MODE_TYPE_PREFERRED;
++              goto out;       /* FIXME: check for quirks */
++      }
++
++      /* If we still don't have a mode after all that, give up. */
++      if (!mode_dev->panel_fixed_mode) {
++              DRM_DEBUG
++                  ("Found no modes on the lvds, ignoring the LVDS\n");
++              goto failed_find;
++      }
++
++out:
++      drm_sysfs_connector_add(connector);
++      return;
++
++failed_find:
++      DRM_DEBUG("No MIIP modes found, disabling.\n");
++      drm_encoder_cleanup(encoder);
++      drm_connector_cleanup(connector);
++      kfree(connector);
++}
+diff --git a/drivers/gpu/drm/psb/psb_intel_i2c.c b/drivers/gpu/drm/psb/psb_intel_i2c.c
+new file mode 100644
+index 0000000..60165fd
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_i2c.c
+@@ -0,0 +1,179 @@
++/*
++ * Copyright Â© 2006-2007 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
++ * DEALINGS IN THE SOFTWARE.
++ *
++ * Authors:
++ *    Eric Anholt <eric@anholt.net>
++ */
++/*
++ * Copyright (c) 2006 Dave Airlie <airlied@linux.ie>
++ *   Jesse Barnes <jesse.barnes@intel.com>
++ */
++
++#include <linux/i2c.h>
++#include <linux/i2c-id.h>
++#include <linux/i2c-algo-bit.h>
++
++/*
++ * Intel GPIO access functions
++ */
++
++#define I2C_RISEFALL_TIME 20
++
++static int get_clock(void *data)
++{
++      struct psb_intel_i2c_chan *chan = data;
++      struct drm_device *dev = chan->drm_dev;
++      u32 val;
++
++      val = REG_READ(chan->reg);
++      return (val & GPIO_CLOCK_VAL_IN) != 0;
++}
++
++static int get_data(void *data)
++{
++      struct psb_intel_i2c_chan *chan = data;
++      struct drm_device *dev = chan->drm_dev;
++      u32 val;
++
++      val = REG_READ(chan->reg);
++      return (val & GPIO_DATA_VAL_IN) != 0;
++}
++
++static void set_clock(void *data, int state_high)
++{
++      struct psb_intel_i2c_chan *chan = data;
++      struct drm_device *dev = chan->drm_dev;
++      u32 reserved = 0, clock_bits;
++
++      /* On most chips, these bits must be preserved in software. */
++      if (!IS_I830(dev) && !IS_845G(dev))
++              reserved =
++                  REG_READ(chan->reg) & (GPIO_DATA_PULLUP_DISABLE |
++                                         GPIO_CLOCK_PULLUP_DISABLE);
++
++      if (state_high)
++              clock_bits = GPIO_CLOCK_DIR_IN | GPIO_CLOCK_DIR_MASK;
++      else
++              clock_bits = GPIO_CLOCK_DIR_OUT | GPIO_CLOCK_DIR_MASK |
++                  GPIO_CLOCK_VAL_MASK;
++      REG_WRITE(chan->reg, reserved | clock_bits);
++      udelay(I2C_RISEFALL_TIME);      /* wait for the line to change state */
++}
++
++static void set_data(void *data, int state_high)
++{
++      struct psb_intel_i2c_chan *chan = data;
++      struct drm_device *dev = chan->drm_dev;
++      u32 reserved = 0, data_bits;
++
++      /* On most chips, these bits must be preserved in software. */
++      if (!IS_I830(dev) && !IS_845G(dev))
++              reserved =
++                  REG_READ(chan->reg) & (GPIO_DATA_PULLUP_DISABLE |
++                                         GPIO_CLOCK_PULLUP_DISABLE);
++
++      if (state_high)
++              data_bits = GPIO_DATA_DIR_IN | GPIO_DATA_DIR_MASK;
++      else
++              data_bits =
++                  GPIO_DATA_DIR_OUT | GPIO_DATA_DIR_MASK |
++                  GPIO_DATA_VAL_MASK;
++
++      REG_WRITE(chan->reg, reserved | data_bits);
++      udelay(I2C_RISEFALL_TIME);      /* wait for the line to change state */
++}
++
++/**
++ * psb_intel_i2c_create - instantiate an Intel i2c bus using the specified GPIO reg
++ * @dev: DRM device
++ * @output: driver specific output device
++ * @reg: GPIO reg to use
++ * @name: name for this bus
++ *
++ * Creates and registers a new i2c bus with the Linux i2c layer, for use
++ * in output probing and control (e.g. DDC or SDVO control functions).
++ *
++ * Possible values for @reg include:
++ *   %GPIOA
++ *   %GPIOB
++ *   %GPIOC
++ *   %GPIOD
++ *   %GPIOE
++ *   %GPIOF
++ *   %GPIOG
++ *   %GPIOH
++ * see PRM for details on how these different busses are used.
++ */
++struct psb_intel_i2c_chan *psb_intel_i2c_create(struct drm_device *dev,
++                                      const u32 reg, const char *name)
++{
++      struct psb_intel_i2c_chan *chan;
++
++      chan = kzalloc(sizeof(struct psb_intel_i2c_chan), GFP_KERNEL);
++      if (!chan)
++              goto out_free;
++
++      chan->drm_dev = dev;
++      chan->reg = reg;
++      snprintf(chan->adapter.name, I2C_NAME_SIZE, "intel drm %s", name);
++      chan->adapter.owner = THIS_MODULE;
++      chan->adapter.algo_data = &chan->algo;
++      chan->adapter.dev.parent = &dev->pdev->dev;
++      chan->algo.setsda = set_data;
++      chan->algo.setscl = set_clock;
++      chan->algo.getsda = get_data;
++      chan->algo.getscl = get_clock;
++      chan->algo.udelay = 20;
++      chan->algo.timeout = usecs_to_jiffies(2200);
++      chan->algo.data = chan;
++
++      i2c_set_adapdata(&chan->adapter, chan);
++
++      if (i2c_bit_add_bus(&chan->adapter))
++              goto out_free;
++
++      /* JJJ:  raise SCL and SDA? */
++      set_data(chan, 1);
++      set_clock(chan, 1);
++      udelay(20);
++
++      return chan;
++
++out_free:
++      kfree(chan);
++      return NULL;
++}
++
++/**
++ * psb_intel_i2c_destroy - unregister and free i2c bus resources
++ * @output: channel to free
++ *
++ * Unregister the adapter from the i2c layer, then free the structure.
++ */
++void psb_intel_i2c_destroy(struct psb_intel_i2c_chan *chan)
++{
++      if (!chan)
++              return;
++
++      i2c_del_adapter(&chan->adapter);
++      kfree(chan);
++}
+diff --git a/drivers/gpu/drm/psb/psb_intel_lvds.c b/drivers/gpu/drm/psb/psb_intel_lvds.c
+new file mode 100644
+index 0000000..4fa29f8
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_lvds.c
+@@ -0,0 +1,1343 @@
++/*
++ * Copyright Â© 2006-2007 Intel Corporation
++ * Copyright (c) 2006 Dave Airlie <airlied@linux.ie>
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
++ * DEALINGS IN THE SOFTWARE.
++ *
++ * Authors:
++ *    Eric Anholt <eric@anholt.net>
++ *      Dave Airlie <airlied@linux.ie>
++ *      Jesse Barnes <jesse.barnes@intel.com>
++ */
++
++#include <linux/i2c.h>
++#include <drm/drm_crtc.h>
++#include <drm/drm_edid.h>
++
++#include "psb_intel_bios.h"
++#include "psb_powermgmt.h"
++
++/* MRST defines start */
++uint8_t blc_type;
++uint8_t blc_pol;
++uint8_t blc_freq;
++uint8_t blc_minbrightness;
++uint8_t blc_i2caddr;
++uint8_t blc_brightnesscmd;
++int lvds_backlight;           /* restore backlight to this value */
++
++u32 CoreClock;
++u32 PWMControlRegFreq;
++
++/**
++ * LVDS I2C backlight control macros
++ */
++#define BRIGHTNESS_MAX_LEVEL 100
++#define BRIGHTNESS_MASK 0xFF
++#define BLC_I2C_TYPE    0x01
++#define BLC_PWM_TYPT    0x02
++
++#define BLC_POLARITY_NORMAL 0
++#define BLC_POLARITY_INVERSE 1
++
++#define PSB_BLC_MAX_PWM_REG_FREQ       (0xFFFE)
++#define PSB_BLC_MIN_PWM_REG_FREQ        (0x2)
++#define PSB_BLC_PWM_PRECISION_FACTOR    (10)
++#define PSB_BACKLIGHT_PWM_CTL_SHIFT     (16)
++#define PSB_BACKLIGHT_PWM_POLARITY_BIT_CLEAR (0xFFFE)
++
++struct psb_intel_lvds_priv {
++        /**
++         * Saved LVDO output states
++         */
++        uint32_t savePP_ON;
++        uint32_t savePP_OFF;
++        uint32_t saveLVDS;
++        uint32_t savePP_CONTROL;
++      uint32_t savePP_CYCLE;
++        uint32_t savePFIT_CONTROL;
++      uint32_t savePFIT_PGM_RATIOS;
++        uint32_t saveBLC_PWM_CTL;
++};
++
++/* MRST defines end */
++
++/**
++ * Returns the maximum level of the backlight duty cycle field.
++ */
++static u32 psb_intel_lvds_get_max_backlight(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      u32 retVal;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              retVal = ((REG_READ(BLC_PWM_CTL) & BACKLIGHT_MODULATION_FREQ_MASK) >>
++                        BACKLIGHT_MODULATION_FREQ_SHIFT) * 2;
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else
++              retVal = ((dev_priv->saveBLC_PWM_CTL & BACKLIGHT_MODULATION_FREQ_MASK) >>
++                        BACKLIGHT_MODULATION_FREQ_SHIFT) * 2;
++
++      return retVal;
++}
++
++/**
++ * Set LVDS backlight level by I2C command
++ */
++static int psb_lvds_i2c_set_brightness(struct drm_device * dev, unsigned int level)
++ {
++        struct drm_psb_private * dev_priv =
++                (struct drm_psb_private*)dev->dev_private;
++
++        struct psb_intel_i2c_chan * lvds_i2c_bus = dev_priv->lvds_i2c_bus;
++        u8 out_buf[2];
++        unsigned int blc_i2c_brightness;
++
++      struct i2c_msg msgs[] = {
++                {
++                        .addr = lvds_i2c_bus->slave_addr,
++                        .flags = 0,
++                        .len = 2,
++                        .buf = out_buf,
++                }
++        };
++
++      blc_i2c_brightness = BRIGHTNESS_MASK & ((unsigned int)level *
++                             BRIGHTNESS_MASK /
++                             BRIGHTNESS_MAX_LEVEL);
++
++        if(dev_priv->lvds_bl->pol == BLC_POLARITY_INVERSE) {
++              blc_i2c_brightness = BRIGHTNESS_MASK - blc_i2c_brightness;
++        }
++
++
++        out_buf[0] = dev_priv->lvds_bl->brightnesscmd;
++        out_buf[1] = (u8)blc_i2c_brightness;
++
++        if(i2c_transfer(&lvds_i2c_bus->adapter, msgs, 1) == 1) {
++                DRM_DEBUG("I2C set brightness done.(command, value) (%d, %d)\n", blc_brightnesscmd, blc_i2c_brightness);
++                return 0;
++        }
++      
++      DRM_ERROR("I2C transfer error\n");
++        return -1;
++}
++
++
++static int psb_lvds_pwm_set_brightness(struct drm_device * dev, int level)
++{
++      struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;
++
++      u32 max_pwm_blc;
++      u32 blc_pwm_duty_cycle;
++
++      max_pwm_blc = psb_intel_lvds_get_max_backlight(dev);
++
++      /*BLC_PWM_CTL Should be initiated while backlight device init*/
++      BUG_ON((max_pwm_blc & PSB_BLC_MAX_PWM_REG_FREQ ) == 0);
++
++      blc_pwm_duty_cycle = level * max_pwm_blc / BRIGHTNESS_MAX_LEVEL;
++      
++      if(dev_priv->lvds_bl->pol == BLC_POLARITY_INVERSE){
++              blc_pwm_duty_cycle = max_pwm_blc - blc_pwm_duty_cycle;
++      }
++
++      blc_pwm_duty_cycle &= PSB_BACKLIGHT_PWM_POLARITY_BIT_CLEAR;
++      REG_WRITE(BLC_PWM_CTL,
++                (max_pwm_blc << PSB_BACKLIGHT_PWM_CTL_SHIFT) |
++                (blc_pwm_duty_cycle));
++
++      return 0;
++}
++
++/**
++ * Set LVDS backlight level either by I2C or PWM
++ */
++void psb_intel_lvds_set_brightness(struct drm_device * dev, int level)
++{
++        /*u32 blc_pwm_ctl;*/
++        struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;
++
++        DRM_DEBUG("backlight level is %d\n", level);
++
++        if(!dev_priv->lvds_bl) {
++                DRM_ERROR("NO LVDS Backlight Info\n");
++                return;
++        }
++
++        if(IS_MRST(dev)) {
++              DRM_ERROR("psb_intel_lvds_set_brightness called from MRST...not expected\n");
++              return;
++        }
++
++        if(dev_priv->lvds_bl->type == BLC_I2C_TYPE) {
++                psb_lvds_i2c_set_brightness(dev, level);
++        } else {
++                psb_lvds_pwm_set_brightness(dev, level);
++        }
++}
++
++/**
++ * Sets the backlight level.
++ *
++ * \param level backlight level, from 0 to psb_intel_lvds_get_max_backlight().
++ */
++static void psb_intel_lvds_set_backlight(struct drm_device *dev, int level)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      u32 blc_pwm_ctl;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false) ) {
++              blc_pwm_ctl = REG_READ(BLC_PWM_CTL) & ~BACKLIGHT_DUTY_CYCLE_MASK;
++              REG_WRITE(BLC_PWM_CTL, (blc_pwm_ctl |
++                                      (level << BACKLIGHT_DUTY_CYCLE_SHIFT)));
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      } else {
++              blc_pwm_ctl = dev_priv->saveBLC_PWM_CTL & ~BACKLIGHT_DUTY_CYCLE_MASK;
++              dev_priv->saveBLC_PWM_CTL = (blc_pwm_ctl |
++                                      (level << BACKLIGHT_DUTY_CYCLE_SHIFT)); 
++      }
++}
++
++/**
++ * Sets the power state for the panel.
++ */
++static void psb_intel_lvds_set_power(struct drm_device *dev,
++                               struct psb_intel_output *output, bool on)
++{
++      u32 pp_status;
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      if (on) {
++              REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) |
++                        POWER_TARGET_ON);
++              do {
++                      pp_status = REG_READ(PP_STATUS);
++              } while ((pp_status & PP_ON) == 0);
++
++              psb_intel_lvds_set_backlight(dev,
++                                       output->
++                                       mode_dev->backlight_duty_cycle);
++      } else {
++              psb_intel_lvds_set_backlight(dev, 0);
++
++              REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) &
++                        ~POWER_TARGET_ON);
++              do {
++                      pp_status = REG_READ(PP_STATUS);
++              } while (pp_status & PP_ON);
++      }
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++static void psb_intel_lvds_encoder_dpms(struct drm_encoder *encoder, int mode)
++{
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_output *output = enc_to_psb_intel_output(encoder);
++
++      if (mode == DRM_MODE_DPMS_ON)
++              psb_intel_lvds_set_power(dev, output, true);
++      else
++              psb_intel_lvds_set_power(dev, output, false);
++
++      /* XXX: We never power down the LVDS pairs. */
++}
++
++static void psb_intel_lvds_save(struct drm_connector *connector)
++{
++      struct drm_device *dev = connector->dev;
++      struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;
++      struct psb_intel_output * psb_intel_output = to_psb_intel_output(connector);
++      struct psb_intel_lvds_priv * lvds_priv =
++                      (struct psb_intel_lvds_priv *)psb_intel_output->dev_priv;
++
++      if(IS_POULSBO(dev)) {   
++              lvds_priv->savePP_ON = REG_READ(LVDSPP_ON);
++              lvds_priv->savePP_OFF = REG_READ(LVDSPP_OFF);
++              lvds_priv->saveLVDS = REG_READ(LVDS);
++              lvds_priv->savePP_CONTROL = REG_READ(PP_CONTROL);
++              lvds_priv->savePP_CYCLE = REG_READ(PP_CYCLE);
++              /*lvds_priv->savePP_DIVISOR = REG_READ(PP_DIVISOR);*/
++              lvds_priv->saveBLC_PWM_CTL = REG_READ(BLC_PWM_CTL);
++              lvds_priv->savePFIT_CONTROL = REG_READ(PFIT_CONTROL);
++              lvds_priv->savePFIT_PGM_RATIOS = REG_READ(PFIT_PGM_RATIOS);
++              
++              /*TODO: move backlight_duty_cycle to psb_intel_lvds_priv*/
++              dev_priv->backlight_duty_cycle = (dev_priv->saveBLC_PWM_CTL &
++                                              BACKLIGHT_DUTY_CYCLE_MASK);
++
++              /*
++               * If the light is off at server startup, just make it full brightness
++               */
++              if (dev_priv->backlight_duty_cycle == 0)
++                      dev_priv->backlight_duty_cycle =
++                      psb_intel_lvds_get_max_backlight(dev);
++
++              DRM_DEBUG("(0x%x, 0x%x, 0x%x, 0x%x, 0x%x, 0x%x)\n", lvds_priv->savePP_ON,
++                              lvds_priv->savePP_OFF,
++                              lvds_priv->saveLVDS,
++                              lvds_priv->savePP_CONTROL,
++                              lvds_priv->savePP_CYCLE,
++                              lvds_priv->saveBLC_PWM_CTL);
++      }
++}
++
++static void psb_intel_lvds_restore(struct drm_connector *connector)
++{
++      struct drm_device *dev = connector->dev;
++      u32 pp_status;
++
++      /*struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;*/
++      struct psb_intel_output * psb_intel_output = to_psb_intel_output(connector);
++      struct psb_intel_lvds_priv * lvds_priv =
++                      (struct psb_intel_lvds_priv *)psb_intel_output->dev_priv;
++
++      if(IS_POULSBO(dev)) {
++              DRM_DEBUG("(0x%x, 0x%x, 0x%x, 0x%x, 0x%x, 0x%x)\n", lvds_priv->savePP_ON,
++                              lvds_priv->savePP_OFF,
++                              lvds_priv->saveLVDS,
++                              lvds_priv->savePP_CONTROL,
++                              lvds_priv->savePP_CYCLE,
++                              lvds_priv->saveBLC_PWM_CTL);
++
++              REG_WRITE(BLC_PWM_CTL, lvds_priv->saveBLC_PWM_CTL);
++              REG_WRITE(PFIT_CONTROL, lvds_priv->savePFIT_CONTROL);
++              REG_WRITE(PFIT_PGM_RATIOS, lvds_priv->savePFIT_PGM_RATIOS);
++              REG_WRITE(LVDSPP_ON, lvds_priv->savePP_ON);
++              REG_WRITE(LVDSPP_OFF, lvds_priv->savePP_OFF);
++              /*REG_WRITE(PP_DIVISOR, lvds_priv->savePP_DIVISOR);*/
++              REG_WRITE(PP_CYCLE, lvds_priv->savePP_CYCLE);
++              REG_WRITE(PP_CONTROL, lvds_priv->savePP_CONTROL);
++              REG_WRITE(LVDS, lvds_priv->saveLVDS);
++
++              if (lvds_priv->savePP_CONTROL & POWER_TARGET_ON) {
++                      REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) |
++                              POWER_TARGET_ON);
++                      do {
++                              pp_status = REG_READ(PP_STATUS);
++                      } while((pp_status & PP_ON) == 0);
++              } else {
++                      REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) &
++                              ~POWER_TARGET_ON);
++                      do {
++                              pp_status = REG_READ(PP_STATUS);
++                      }while(pp_status & PP_ON);
++              }
++      }
++}
++
++static int psb_intel_lvds_mode_valid(struct drm_connector *connector,
++                               struct drm_display_mode *mode)
++{
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++      struct drm_display_mode *fixed_mode =
++          psb_intel_output->mode_dev->panel_fixed_mode;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter  psb_intel_lvds_mode_valid \n");
++#endif                                /* PRINT_JLIU7 */
++
++      /* just in case */
++      if (mode->flags & DRM_MODE_FLAG_DBLSCAN)
++              return MODE_NO_DBLESCAN;
++
++      /* just in case */
++      if (mode->flags & DRM_MODE_FLAG_INTERLACE)
++              return MODE_NO_INTERLACE;
++
++      if (fixed_mode) {
++              if (mode->hdisplay > fixed_mode->hdisplay)
++                      return MODE_PANEL;
++              if (mode->vdisplay > fixed_mode->vdisplay)
++                      return MODE_PANEL;
++      }
++      return MODE_OK;
++}
++
++static bool psb_intel_lvds_mode_fixup(struct drm_encoder *encoder,
++                                struct drm_display_mode *mode,
++                                struct drm_display_mode *adjusted_mode)
++{
++      struct psb_intel_mode_device *mode_dev =
++          enc_to_psb_intel_output(encoder)->mode_dev;
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(encoder->crtc);
++      struct drm_encoder *tmp_encoder;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter  psb_intel_lvds_mode_fixup \n");
++#endif                                /* PRINT_JLIU7 */
++
++      /* Should never happen!! */
++      if (IS_MRST(dev) && psb_intel_crtc->pipe != 0) {
++              printk(KERN_ERR
++                     "Can't support LVDS/MIPI on pipe B on MRST\n");
++              return false;
++      } else if (!IS_MRST(dev) && !IS_I965G(dev)
++                 && psb_intel_crtc->pipe == 0) {
++              printk(KERN_ERR "Can't support LVDS on pipe A\n");
++              return false;
++      }
++      /* Should never happen!! */
++      list_for_each_entry(tmp_encoder, &dev->mode_config.encoder_list,
++                          head) {
++              if (tmp_encoder != encoder
++                  && tmp_encoder->crtc == encoder->crtc) {
++                      printk(KERN_ERR "Can't enable LVDS and another "
++                             "encoder on the same pipe\n");
++                      return false;
++              }
++      }
++
++      /*
++       * If we have timings from the BIOS for the panel, put them in
++       * to the adjusted mode.  The CRTC will be set up for this mode,
++       * with the panel scaling set up to source from the H/VDisplay
++       * of the original mode.
++       */
++      if (mode_dev->panel_fixed_mode != NULL) {
++              adjusted_mode->hdisplay =
++                  mode_dev->panel_fixed_mode->hdisplay;
++              adjusted_mode->hsync_start =
++                  mode_dev->panel_fixed_mode->hsync_start;
++              adjusted_mode->hsync_end =
++                  mode_dev->panel_fixed_mode->hsync_end;
++              adjusted_mode->htotal = mode_dev->panel_fixed_mode->htotal;
++              adjusted_mode->vdisplay =
++                  mode_dev->panel_fixed_mode->vdisplay;
++              adjusted_mode->vsync_start =
++                  mode_dev->panel_fixed_mode->vsync_start;
++              adjusted_mode->vsync_end =
++                  mode_dev->panel_fixed_mode->vsync_end;
++              adjusted_mode->vtotal = mode_dev->panel_fixed_mode->vtotal;
++              adjusted_mode->clock = mode_dev->panel_fixed_mode->clock;
++              drm_mode_set_crtcinfo(adjusted_mode,
++                                    CRTC_INTERLACE_HALVE_V);
++      }
++
++      /*
++       * XXX: It would be nice to support lower refresh rates on the
++       * panels to reduce power consumption, and perhaps match the
++       * user's requested refresh rate.
++       */
++
++      return true;
++}
++
++static void psb_intel_lvds_prepare(struct drm_encoder *encoder)
++{
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_output *output = enc_to_psb_intel_output(encoder);
++      struct psb_intel_mode_device *mode_dev = output->mode_dev;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter  psb_intel_lvds_prepare \n");
++#endif                                /* PRINT_JLIU7 */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      mode_dev->saveBLC_PWM_CTL = REG_READ(BLC_PWM_CTL);
++      mode_dev->backlight_duty_cycle = (mode_dev->saveBLC_PWM_CTL &
++                                        BACKLIGHT_DUTY_CYCLE_MASK);
++
++      psb_intel_lvds_set_power(dev, output, false);
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++static void psb_intel_lvds_commit(struct drm_encoder *encoder)
++{
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_output *output = enc_to_psb_intel_output(encoder);
++      struct psb_intel_mode_device *mode_dev = output->mode_dev;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter  psb_intel_lvds_commit \n");
++#endif                                /* PRINT_JLIU7 */
++
++      if (mode_dev->backlight_duty_cycle == 0)
++              mode_dev->backlight_duty_cycle =
++                  psb_intel_lvds_get_max_backlight(dev);
++
++      psb_intel_lvds_set_power(dev, output, true);
++}
++
++static void psb_intel_lvds_mode_set(struct drm_encoder *encoder,
++                              struct drm_display_mode *mode,
++                              struct drm_display_mode *adjusted_mode)
++{
++      struct psb_intel_mode_device *mode_dev =
++          enc_to_psb_intel_output(encoder)->mode_dev;
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(encoder->crtc);
++      u32 pfit_control;
++
++      /*
++       * The LVDS pin pair will already have been turned on in the
++       * psb_intel_crtc_mode_set since it has a large impact on the DPLL
++       * settings.
++       */
++
++      /*
++       * Enable automatic panel scaling so that non-native modes fill the
++       * screen.  Should be enabled before the pipe is enabled, according to
++       * register description and PRM.
++       */
++      if (mode->hdisplay != adjusted_mode->hdisplay ||
++          mode->vdisplay != adjusted_mode->vdisplay)
++              pfit_control = (PFIT_ENABLE | VERT_AUTO_SCALE |
++                              HORIZ_AUTO_SCALE | VERT_INTERP_BILINEAR |
++                              HORIZ_INTERP_BILINEAR);
++      else
++              pfit_control = 0;
++
++      if (!IS_I965G(dev)) {
++              if (mode_dev->panel_wants_dither)
++                      pfit_control |= PANEL_8TO6_DITHER_ENABLE;
++      } else
++              pfit_control |= psb_intel_crtc->pipe << PFIT_PIPE_SHIFT;
++
++      REG_WRITE(PFIT_CONTROL, pfit_control);
++}
++
++/**
++ * Detect the LVDS connection.
++ *
++ * This always returns CONNECTOR_STATUS_CONNECTED.
++ * This connector should only have
++ * been set up if the LVDS was actually connected anyway.
++ */
++static enum drm_connector_status psb_intel_lvds_detect(struct drm_connector
++                                                 *connector)
++{
++      return connector_status_connected;
++}
++
++/**
++ * Return the list of DDC modes if available, or the BIOS fixed mode otherwise.
++ */
++static int psb_intel_lvds_get_modes(struct drm_connector *connector)
++{
++      struct drm_device *dev = connector->dev;
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++      struct psb_intel_mode_device *mode_dev = psb_intel_output->mode_dev;
++      int ret = 0;
++
++      if (!IS_MRST(dev))
++              ret = psb_intel_ddc_get_modes(psb_intel_output);
++
++      if (ret)
++              return ret;
++
++      /* Didn't get an EDID, so
++       * Set wide sync ranges so we get all modes
++       * handed to valid_mode for checking
++       */
++      connector->display_info.min_vfreq = 0;
++      connector->display_info.max_vfreq = 200;
++      connector->display_info.min_hfreq = 0;
++      connector->display_info.max_hfreq = 200;
++
++      if (mode_dev->panel_fixed_mode != NULL) {
++              struct drm_display_mode *mode =
++                  drm_mode_duplicate(dev, mode_dev->panel_fixed_mode);
++              drm_mode_probed_add(connector, mode);
++              return 1;
++      }
++
++      return 0;
++}
++
++/**
++ * psb_intel_lvds_destroy - unregister and free LVDS structures
++ * @connector: connector to free
++ *
++ * Unregister the DDC bus for this connector then free the driver private
++ * structure.
++ */
++static void psb_intel_lvds_destroy(struct drm_connector *connector)
++{
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++
++      if (psb_intel_output->ddc_bus)
++              psb_intel_i2c_destroy(psb_intel_output->ddc_bus);
++      drm_sysfs_connector_remove(connector);
++      drm_connector_cleanup(connector);
++      kfree(connector);
++}
++
++static void psb_intel_lvds_connector_dpms(struct drm_connector *connector, int mode)
++{
++      struct drm_encoder *pEncoder = connector->encoder;
++      struct drm_encoder_helper_funcs *pEncHFuncs = pEncoder->helper_private;
++      struct drm_crtc_helper_funcs *pCrtcHFuncs = pEncoder->crtc->helper_private;
++      struct drm_device * dev = connector->dev;
++      pEncHFuncs->dpms(pEncoder, mode);
++      /*FIXME: crtc dpms will crash kernel on menlow*/
++      if (IS_MRST(dev))
++              pCrtcHFuncs->dpms(pEncoder->crtc, mode);
++}
++
++static int psb_intel_lvds_set_property(struct drm_connector *connector,
++                                     struct drm_property *property,
++                                     uint64_t value)
++{
++      struct drm_encoder *pEncoder = connector->encoder;
++
++      if (!strcmp(property->name, "scaling mode") && pEncoder) {
++              struct psb_intel_crtc *pPsbCrtc = to_psb_intel_crtc(pEncoder->crtc);
++              bool bTransitionFromToCentered;
++              uint64_t curValue;
++
++              if (!pPsbCrtc)
++                      goto set_prop_error;
++
++              switch (value) {
++              case DRM_MODE_SCALE_FULLSCREEN:
++                      break;
++              case DRM_MODE_SCALE_NO_SCALE:
++                      break;
++              case DRM_MODE_SCALE_ASPECT:
++                      break;
++              default:
++                      goto set_prop_error;
++              }
++
++              if (drm_connector_property_get_value(connector, property, &curValue))
++                      goto set_prop_error;
++
++              if (curValue == value)
++                      goto set_prop_done;
++
++              if (drm_connector_property_set_value(connector, property, value))
++                      goto set_prop_error;
++
++              bTransitionFromToCentered = (curValue == DRM_MODE_SCALE_NO_SCALE) ||
++                      (value == DRM_MODE_SCALE_NO_SCALE);
++
++              if (pPsbCrtc->saved_mode.hdisplay != 0 &&
++                  pPsbCrtc->saved_mode.vdisplay != 0) {
++                      if (bTransitionFromToCentered) {
++                              if (!drm_crtc_helper_set_mode(pEncoder->crtc, &pPsbCrtc->saved_mode,
++                                          pEncoder->crtc->x, pEncoder->crtc->y, pEncoder->crtc->fb))
++                                      goto set_prop_error;
++                      } else {
++                              struct drm_encoder_helper_funcs *pEncHFuncs  = pEncoder->helper_private;
++                              pEncHFuncs->mode_set(pEncoder, &pPsbCrtc->saved_mode,
++                                                   &pPsbCrtc->saved_adjusted_mode);
++                      }
++              }
++      } else if (!strcmp(property->name, "backlight") && pEncoder) {
++              if (drm_connector_property_set_value(connector, property, value))
++                      goto set_prop_error;
++              else {
++#ifdef CONFIG_BACKLIGHT_CLASS_DEVICE
++                      struct backlight_device bd;
++                      bd.props.brightness = value;
++                      psb_set_brightness(&bd);
++#endif
++              }
++      } else if (!strcmp(property->name, "DPMS") && pEncoder) {
++              struct drm_encoder_helper_funcs *pEncHFuncs = pEncoder->helper_private;
++              /*struct drm_crtc_helper_funcs *pCrtcHFuncs = pEncoder->crtc->helper_private;*/
++              pEncHFuncs->dpms(pEncoder, value);
++              /*pCrtcHFuncs->dpms(pEncoder->crtc, value);*/
++      }
++
++set_prop_done:
++    return 0;
++set_prop_error:
++    return -1;
++}
++
++static const struct drm_encoder_helper_funcs psb_intel_lvds_helper_funcs = {
++      .dpms = psb_intel_lvds_encoder_dpms,
++      .mode_fixup = psb_intel_lvds_mode_fixup,
++      .prepare = psb_intel_lvds_prepare,
++      .mode_set = psb_intel_lvds_mode_set,
++      .commit = psb_intel_lvds_commit,
++};
++
++static const struct drm_connector_helper_funcs
++    psb_intel_lvds_connector_helper_funcs = {
++      .get_modes = psb_intel_lvds_get_modes,
++      .mode_valid = psb_intel_lvds_mode_valid,
++      .best_encoder = psb_intel_best_encoder,
++};
++
++static const struct drm_connector_funcs psb_intel_lvds_connector_funcs = {
++      .dpms = psb_intel_lvds_connector_dpms,
++      .save = psb_intel_lvds_save,
++      .restore = psb_intel_lvds_restore,
++      .detect = psb_intel_lvds_detect,
++      .fill_modes = drm_helper_probe_single_connector_modes,
++      .set_property = psb_intel_lvds_set_property,
++      .destroy = psb_intel_lvds_destroy,
++};
++
++
++static void psb_intel_lvds_enc_destroy(struct drm_encoder *encoder)
++{
++      drm_encoder_cleanup(encoder);
++}
++
++static const struct drm_encoder_funcs psb_intel_lvds_enc_funcs = {
++      .destroy = psb_intel_lvds_enc_destroy,
++};
++
++
++
++/**
++ * psb_intel_lvds_init - setup LVDS connectors on this device
++ * @dev: drm device
++ *
++ * Create the connector, register the LVDS DDC bus, and try to figure out what
++ * modes we can display on the LVDS panel (if present).
++ */
++void psb_intel_lvds_init(struct drm_device *dev,
++                   struct psb_intel_mode_device *mode_dev)
++{
++      struct psb_intel_output *psb_intel_output;
++      struct psb_intel_lvds_priv * lvds_priv;
++      struct drm_connector *connector;
++      struct drm_encoder *encoder;
++      struct drm_display_mode *scan;  /* *modes, *bios_mode; */
++      struct drm_crtc *crtc;
++      struct drm_psb_private * dev_priv = (struct drm_psb_private *)dev->dev_private;
++      u32 lvds;
++      int pipe;
++
++      psb_intel_output = kzalloc(sizeof(struct psb_intel_output), GFP_KERNEL);
++      if (!psb_intel_output)
++              return;
++
++      lvds_priv = kzalloc(sizeof(struct psb_intel_lvds_priv), GFP_KERNEL);
++      if(!lvds_priv) {
++              kfree(psb_intel_output);
++              DRM_DEBUG("LVDS private allocation error\n");
++              return;
++      }
++
++      psb_intel_output->dev_priv = lvds_priv;
++
++      psb_intel_output->mode_dev = mode_dev;
++      connector = &psb_intel_output->base;
++      encoder = &psb_intel_output->enc;
++      drm_connector_init(dev, &psb_intel_output->base,
++                         &psb_intel_lvds_connector_funcs,
++                         DRM_MODE_CONNECTOR_LVDS);
++
++      drm_encoder_init(dev, &psb_intel_output->enc, &psb_intel_lvds_enc_funcs,
++                       DRM_MODE_ENCODER_LVDS);
++
++      drm_mode_connector_attach_encoder(&psb_intel_output->base,
++                                        &psb_intel_output->enc);
++      psb_intel_output->type = INTEL_OUTPUT_LVDS;
++
++      drm_encoder_helper_add(encoder, &psb_intel_lvds_helper_funcs);
++      drm_connector_helper_add(connector,
++                               &psb_intel_lvds_connector_helper_funcs);
++      connector->display_info.subpixel_order = SubPixelHorizontalRGB;
++      connector->interlace_allowed = false;
++      connector->doublescan_allowed = false;
++
++      /*Attach connector properties*/
++      drm_connector_attach_property(connector, dev->mode_config.scaling_mode_property, DRM_MODE_SCALE_FULLSCREEN);
++      drm_connector_attach_property(connector, dev_priv->backlight_property, BRIGHTNESS_MAX_LEVEL);
++
++      /**
++       * Set up I2C bus
++         * FIXME: distroy i2c_bus when exit
++         */
++      psb_intel_output->i2c_bus = psb_intel_i2c_create(dev, GPIOB, "LVDSBLC_B");
++      if(!psb_intel_output->i2c_bus) {
++              dev_printk(KERN_ERR,
++                      &dev->pdev->dev, "I2C bus registration failed.\n");
++              goto failed_blc_i2c;
++      }
++      psb_intel_output->i2c_bus->slave_addr = 0x2C;
++      dev_priv->lvds_i2c_bus =  psb_intel_output->i2c_bus;
++
++      /*
++       * LVDS discovery:
++       * 1) check for EDID on DDC
++       * 2) check for VBT data
++       * 3) check to see if LVDS is already on
++       *    if none of the above, no panel
++       * 4) make sure lid is open
++       *    if closed, act like it's not there for now
++       */
++
++      /* Set up the DDC bus. */
++      psb_intel_output->ddc_bus = psb_intel_i2c_create(dev, GPIOC, "LVDSDDC_C");
++      if (!psb_intel_output->ddc_bus) {
++              dev_printk(KERN_ERR, &dev->pdev->dev,
++                         "DDC bus registration " "failed.\n");
++              goto failed_ddc;
++      }
++
++      /*
++       * Attempt to get the fixed panel mode from DDC.  Assume that the
++       * preferred mode is the right one.
++       */
++      psb_intel_ddc_get_modes(psb_intel_output);
++      list_for_each_entry(scan, &connector->probed_modes, head) {
++              if (scan->type & DRM_MODE_TYPE_PREFERRED) {
++                      mode_dev->panel_fixed_mode =
++                          drm_mode_duplicate(dev, scan);
++                      goto out;       /* FIXME: check for quirks */
++              }
++      }
++
++      /* Failed to get EDID, what about VBT? do we need this?*/
++      if (mode_dev->vbt_mode)
++              mode_dev->panel_fixed_mode =
++                  drm_mode_duplicate(dev, mode_dev->vbt_mode);
++      
++      if(!mode_dev->panel_fixed_mode)
++              if (dev_priv->lfp_lvds_vbt_mode)
++                      mode_dev->panel_fixed_mode =
++                              drm_mode_duplicate(dev, dev_priv->lfp_lvds_vbt_mode);
++
++      /*
++       * If we didn't get EDID, try checking if the panel is already turned
++       * on.  If so, assume that whatever is currently programmed is the
++       * correct mode.
++       */
++      lvds = REG_READ(LVDS);
++      pipe = (lvds & LVDS_PIPEB_SELECT) ? 1 : 0;
++      crtc = psb_intel_get_crtc_from_pipe(dev, pipe);
++
++      if (crtc && (lvds & LVDS_PORT_EN)) {
++              mode_dev->panel_fixed_mode =
++                  psb_intel_crtc_mode_get(dev, crtc);
++              if (mode_dev->panel_fixed_mode) {
++                      mode_dev->panel_fixed_mode->type |=
++                          DRM_MODE_TYPE_PREFERRED;
++                      goto out;       /* FIXME: check for quirks */
++              }
++      }
++
++      /* If we still don't have a mode after all that, give up. */
++      if (!mode_dev->panel_fixed_mode) {
++              DRM_DEBUG
++                      ("Found no modes on the lvds, ignoring the LVDS\n");
++              goto failed_find;
++      }
++
++      /* FIXME: detect aopen & mac mini type stuff automatically? */
++      /*
++       * Blacklist machines with BIOSes that list an LVDS panel without
++       * actually having one.
++       */
++      if (IS_I945GM(dev)) {
++              /* aopen mini pc */
++              if (dev->pdev->subsystem_vendor == 0xa0a0) {
++                      DRM_DEBUG
++                          ("Suspected AOpen Mini PC, ignoring the LVDS\n");
++                      goto failed_find;
++              }
++
++              if ((dev->pdev->subsystem_vendor == 0x8086) &&
++                  (dev->pdev->subsystem_device == 0x7270)) {
++                      /* It's a Mac Mini or Macbook Pro. */
++
++                      if (mode_dev->panel_fixed_mode != NULL &&
++                          mode_dev->panel_fixed_mode->hdisplay == 800 &&
++                          mode_dev->panel_fixed_mode->vdisplay == 600) {
++                              DRM_DEBUG
++                                  ("Suspected Mac Mini, ignoring the LVDS\n");
++                              goto failed_find;
++                      }
++              }
++      }
++
++out:
++      drm_sysfs_connector_add(connector);
++
++#if PRINT_JLIU7
++      DRM_INFO("PRINT_JLIU7 hdisplay = %d\n",
++               mode_dev->panel_fixed_mode->hdisplay);
++      DRM_INFO("PRINT_JLIU7 vdisplay = %d\n",
++               mode_dev->panel_fixed_mode->vdisplay);
++      DRM_INFO("PRINT_JLIU7 hsync_start = %d\n",
++               mode_dev->panel_fixed_mode->hsync_start);
++      DRM_INFO("PRINT_JLIU7 hsync_end = %d\n",
++               mode_dev->panel_fixed_mode->hsync_end);
++      DRM_INFO("PRINT_JLIU7 htotal = %d\n",
++               mode_dev->panel_fixed_mode->htotal);
++      DRM_INFO("PRINT_JLIU7 vsync_start = %d\n",
++               mode_dev->panel_fixed_mode->vsync_start);
++      DRM_INFO("PRINT_JLIU7 vsync_end = %d\n",
++               mode_dev->panel_fixed_mode->vsync_end);
++      DRM_INFO("PRINT_JLIU7 vtotal = %d\n",
++               mode_dev->panel_fixed_mode->vtotal);
++      DRM_INFO("PRINT_JLIU7 clock = %d\n",
++               mode_dev->panel_fixed_mode->clock);
++#endif                                /* PRINT_JLIU7 */
++      return;
++
++failed_find:
++      if (psb_intel_output->ddc_bus)
++              psb_intel_i2c_destroy(psb_intel_output->ddc_bus);
++failed_ddc:
++      if (psb_intel_output->i2c_bus)
++              psb_intel_i2c_destroy(psb_intel_output->i2c_bus);
++failed_blc_i2c:
++      drm_encoder_cleanup(encoder);
++      drm_connector_cleanup(connector);
++      kfree(connector);
++}
++
++/* MRST platform start */
++
++/*
++ * FIXME need to move to register define head file
++ */
++#define MRST_BACKLIGHT_MODULATION_FREQ_SHIFT          (16)
++#define MRST_BACKLIGHT_MODULATION_FREQ_MASK           (0xffff << 16)
++
++/* The max/min PWM frequency in BPCR[31:17] - */
++/* The smallest number is 1 (not 0) that can fit in the
++ * 15-bit field of the and then*/
++/* shifts to the left by one bit to get the actual 16-bit
++ * value that the 15-bits correspond to.*/
++#define MRST_BLC_MAX_PWM_REG_FREQ         0xFFFF
++
++#define BRIGHTNESS_MAX_LEVEL 100
++#define BLC_PWM_PRECISION_FACTOR 10   /* 10000000 */
++#define BLC_PWM_FREQ_CALC_CONSTANT 32
++#define MHz 1000000
++#define BLC_POLARITY_NORMAL 0
++#define BLC_POLARITY_INVERSE 1
++
++/**
++ * Calculate PWM control register value.
++ */
++#if 0
++static bool mrstLVDSCalculatePWMCtrlRegFreq(struct drm_device *dev)
++{
++      unsigned long value = 0;
++      if (blc_freq == 0) {
++              /* DRM_ERROR(KERN_ERR "mrstLVDSCalculatePWMCtrlRegFreq:
++               * Frequency Requested is 0.\n"); */
++              return false;
++      }
++
++      value = (CoreClock * MHz);
++      value = (value / BLC_PWM_FREQ_CALC_CONSTANT);
++      value = (value * BLC_PWM_PRECISION_FACTOR);
++      value = (value / blc_freq);
++      value = (value / BLC_PWM_PRECISION_FACTOR);
++
++      if (value > (unsigned long) MRST_BLC_MAX_PWM_REG_FREQ) {
++              return 0;
++      } else {
++              PWMControlRegFreq = (u32) value;
++              return 1;
++      }
++}
++#endif
++/**
++ * Sets the power state for the panel.
++ */
++static void mrst_lvds_set_power(struct drm_device *dev,
++                              struct psb_intel_output *output, bool on)
++{
++      u32 pp_status;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter mrst_lvds_set_power \n");
++#endif                                /* PRINT_JLIU7 */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      if (on) {
++              REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) |
++                        POWER_TARGET_ON);
++              do {
++                      pp_status = REG_READ(PP_STATUS);
++              } while ((pp_status & (PP_ON | PP_READY)) == PP_READY);
++      } else {
++              REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) &
++                        ~POWER_TARGET_ON);
++              do {
++                      pp_status = REG_READ(PP_STATUS);
++              } while (pp_status & PP_ON);
++      }
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++static void mrst_lvds_dpms(struct drm_encoder *encoder, int mode)
++{
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_output *output = enc_to_psb_intel_output(encoder);
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter mrst_lvds_dpms \n");
++#endif                                /* PRINT_JLIU7 */
++
++      if (mode == DRM_MODE_DPMS_ON)
++              mrst_lvds_set_power(dev, output, true);
++      else
++              mrst_lvds_set_power(dev, output, false);
++
++      /* XXX: We never power down the LVDS pairs. */
++}
++
++static void mrst_lvds_mode_set(struct drm_encoder *encoder,
++                             struct drm_display_mode *mode,
++                             struct drm_display_mode *adjusted_mode)
++{
++      struct psb_intel_mode_device *mode_dev = enc_to_psb_intel_output(encoder)->mode_dev;
++      struct drm_device *dev = encoder->dev;
++      u32 lvds_port;
++      uint64_t curValue = DRM_MODE_SCALE_FULLSCREEN;
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter  mrst_lvds_mode_set \n");
++#endif                                /* PRINT_JLIU7 */
++
++      powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, true);
++
++      /*
++       * The LVDS pin pair will already have been turned on in the
++       * psb_intel_crtc_mode_set since it has a large impact on the DPLL
++       * settings.
++       */
++      /*FIXME JLIU7 Get panel power delay parameters from config data */
++      REG_WRITE(0x61208, 0x25807d0);
++      REG_WRITE(0x6120c, 0x1f407d0);
++      REG_WRITE(0x61210, 0x270f04);
++
++      lvds_port = (REG_READ(LVDS) & (~LVDS_PIPEB_SELECT)) | LVDS_PORT_EN | LVDS_BORDER_EN;
++
++      if (mode_dev->panel_wants_dither)
++              lvds_port |= MRST_PANEL_8TO6_DITHER_ENABLE;
++
++      REG_WRITE(LVDS, lvds_port);
++
++      drm_connector_property_get_value(&enc_to_psb_intel_output(encoder)->base,
++                                       dev->mode_config.scaling_mode_property, &curValue);
++
++      if (curValue == DRM_MODE_SCALE_NO_SCALE)
++              REG_WRITE(PFIT_CONTROL, 0);
++      else if (curValue == DRM_MODE_SCALE_ASPECT) {
++              if ((mode->vdisplay != adjusted_mode->crtc_vdisplay) || (mode->hdisplay != adjusted_mode->crtc_hdisplay)) {
++                      if ((adjusted_mode->crtc_hdisplay * mode->vdisplay) == (mode->hdisplay * adjusted_mode->crtc_vdisplay))
++                              REG_WRITE(PFIT_CONTROL, PFIT_ENABLE);
++                      else if ((adjusted_mode->crtc_hdisplay * mode->vdisplay) > (mode->hdisplay * adjusted_mode->crtc_vdisplay))
++                              REG_WRITE(PFIT_CONTROL, PFIT_ENABLE | PFIT_SCALING_MODE_PILLARBOX);
++                      else
++                              REG_WRITE(PFIT_CONTROL, PFIT_ENABLE | PFIT_SCALING_MODE_LETTERBOX);
++              } else
++                      REG_WRITE(PFIT_CONTROL, PFIT_ENABLE);
++      } else /*(curValue == DRM_MODE_SCALE_FULLSCREEN)*/
++              REG_WRITE(PFIT_CONTROL, PFIT_ENABLE);
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++}
++
++
++static const struct drm_encoder_helper_funcs mrst_lvds_helper_funcs = {
++      .dpms = mrst_lvds_dpms,
++      .mode_fixup = psb_intel_lvds_mode_fixup,
++      .prepare = psb_intel_lvds_prepare,
++      .mode_set = mrst_lvds_mode_set,
++      .commit = psb_intel_lvds_commit,
++};
++
++/** Returns the panel fixed mode from configuration. */
++/** FIXME JLIU7 need to revist it. */
++struct drm_display_mode *mrst_lvds_get_configuration_mode(struct drm_device
++                                                        *dev)
++{
++      struct drm_display_mode *mode;
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *) dev->dev_private;
++      struct mrst_timing_info *ti = &dev_priv->gct_data.DTD;
++              
++      mode = kzalloc(sizeof(*mode), GFP_KERNEL);
++      if (!mode)
++              return NULL;
++
++      if (dev_priv->vbt_data.Size != 0x00) { /*if non-zero, then use vbt*/
++
++              mode->hdisplay = (ti->hactive_hi << 8) | ti->hactive_lo;
++              mode->vdisplay = (ti->vactive_hi << 8) | ti->vactive_lo;
++              mode->hsync_start = mode->hdisplay + \
++                              ((ti->hsync_offset_hi << 8) | \
++                              ti->hsync_offset_lo);
++              mode->hsync_end = mode->hsync_start + \
++                              ((ti->hsync_pulse_width_hi << 8) | \
++                              ti->hsync_pulse_width_lo);
++              mode->htotal = mode->hdisplay + ((ti->hblank_hi << 8) | \
++                                                      ti->hblank_lo);
++              mode->vsync_start = \
++                      mode->vdisplay + ((ti->vsync_offset_hi << 8) | \
++                                              ti->vsync_offset_lo);
++              mode->vsync_end = \
++                      mode->vsync_start + ((ti->vsync_pulse_width_hi << 8) | \
++                                              ti->vsync_pulse_width_lo);
++              mode->vtotal = mode->vdisplay + \
++                              ((ti->vblank_hi << 8) | ti->vblank_lo);
++              mode->clock = ti->pixel_clock * 10;
++#if 0
++              printk(KERN_INFO "hdisplay is %d\n", mode->hdisplay);
++              printk(KERN_INFO "vdisplay is %d\n", mode->vdisplay);
++              printk(KERN_INFO "HSS is %d\n", mode->hsync_start);
++              printk(KERN_INFO "HSE is %d\n", mode->hsync_end);
++              printk(KERN_INFO "htotal is %d\n", mode->htotal);
++              printk(KERN_INFO "VSS is %d\n", mode->vsync_start);
++              printk(KERN_INFO "VSE is %d\n", mode->vsync_end);
++              printk(KERN_INFO "vtotal is %d\n", mode->vtotal);
++              printk(KERN_INFO "clock is %d\n", mode->clock);
++#endif
++      }
++      else {
++
++#if 0                         /*FIXME jliu7 remove it later */
++      /* hard coded fixed mode for TPO LTPS LPJ040K001A */
++      mode->hdisplay = 800;
++      mode->vdisplay = 480;
++      mode->hsync_start = 836;
++      mode->hsync_end = 846;
++      mode->htotal = 1056;
++      mode->vsync_start = 489;
++      mode->vsync_end = 491;
++      mode->vtotal = 525;
++      mode->clock = 33264;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it later */
++      /* hard coded fixed mode for LVDS 800x480 */
++      mode->hdisplay = 800;
++      mode->vdisplay = 480;
++      mode->hsync_start = 801;
++      mode->hsync_end = 802;
++      mode->htotal = 1024;
++      mode->vsync_start = 481;
++      mode->vsync_end = 482;
++      mode->vtotal = 525;
++      mode->clock = 30994;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 1                         /*FIXME jliu7 remove it later, jliu7 modify it according to the spec */
++      /* hard coded fixed mode for Samsung 480wsvga LVDS 1024x600@75 */
++      mode->hdisplay = 1024;
++      mode->vdisplay = 600;
++      mode->hsync_start = 1072;
++      mode->hsync_end = 1104;
++      mode->htotal = 1184;
++      mode->vsync_start = 603;
++      mode->vsync_end = 604;
++      mode->vtotal = 608;
++      mode->clock = 53990;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it, it is copied from SBIOS */
++      /* hard coded fixed mode for Samsung 480wsvga LVDS 1024x600@75 */
++      mode->hdisplay = 1024;
++      mode->vdisplay = 600;
++      mode->hsync_start = 1104;
++      mode->hsync_end = 1136;
++      mode->htotal = 1184;
++      mode->vsync_start = 603;
++      mode->vsync_end = 604;
++      mode->vtotal = 608;
++      mode->clock = 53990;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it later */
++      /* hard coded fixed mode for Sharp wsvga LVDS 1024x600 */
++      mode->hdisplay = 1024;
++      mode->vdisplay = 600;
++      mode->hsync_start = 1124;
++      mode->hsync_end = 1204;
++      mode->htotal = 1312;
++      mode->vsync_start = 607;
++      mode->vsync_end = 610;
++      mode->vtotal = 621;
++      mode->clock = 48885;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it later */
++      /* hard coded fixed mode for LVDS 1024x768 */
++      mode->hdisplay = 1024;
++      mode->vdisplay = 768;
++      mode->hsync_start = 1048;
++      mode->hsync_end = 1184;
++      mode->htotal = 1344;
++      mode->vsync_start = 771;
++      mode->vsync_end = 777;
++      mode->vtotal = 806;
++      mode->clock = 65000;
++#endif                                /*FIXME jliu7 remove it later */
++
++#if 0                         /*FIXME jliu7 remove it later */
++      /* hard coded fixed mode for LVDS 1366x768 */
++      mode->hdisplay = 1366;
++      mode->vdisplay = 768;
++      mode->hsync_start = 1430;
++      mode->hsync_end = 1558;
++      mode->htotal = 1664;
++      mode->vsync_start = 769;
++      mode->vsync_end = 770;
++      mode->vtotal = 776;
++      mode->clock = 77500;
++#endif                                /*FIXME jliu7 remove it later */
++      }
++      drm_mode_set_name(mode);
++      drm_mode_set_crtcinfo(mode, 0);
++
++      return mode;
++}
++
++/**
++ * mrst_lvds_init - setup LVDS connectors on this device
++ * @dev: drm device
++ *
++ * Create the connector, register the LVDS DDC bus, and try to figure out what
++ * modes we can display on the LVDS panel (if present).
++ */
++void mrst_lvds_init(struct drm_device *dev,
++                  struct psb_intel_mode_device *mode_dev)
++{
++      struct psb_intel_output *psb_intel_output;
++      struct drm_connector *connector;
++      struct drm_encoder *encoder;
++      struct drm_psb_private *dev_priv = (struct drm_psb_private *) dev->dev_private;
++      struct edid *edid;
++      int ret = 0;
++      struct i2c_adapter *i2c_adap;
++      struct drm_display_mode *scan;  /* *modes, *bios_mode; */
++
++#if PRINT_JLIU7
++      DRM_INFO("JLIU7 enter mrst_lvds_init \n");
++#endif                                /* PRINT_JLIU7 */
++
++      psb_intel_output = kzalloc(sizeof(struct psb_intel_output), GFP_KERNEL);
++      if (!psb_intel_output)
++              return;
++
++      psb_intel_output->mode_dev = mode_dev;
++      connector = &psb_intel_output->base;
++      encoder = &psb_intel_output->enc;
++      drm_connector_init(dev, &psb_intel_output->base,
++                         &psb_intel_lvds_connector_funcs,
++                         DRM_MODE_CONNECTOR_LVDS);
++
++      drm_encoder_init(dev, &psb_intel_output->enc, &psb_intel_lvds_enc_funcs,
++                       DRM_MODE_ENCODER_LVDS);
++
++      drm_mode_connector_attach_encoder(&psb_intel_output->base,
++                                        &psb_intel_output->enc);
++      psb_intel_output->type = INTEL_OUTPUT_LVDS;
++
++      drm_encoder_helper_add(encoder, &mrst_lvds_helper_funcs);
++      drm_connector_helper_add(connector,
++                               &psb_intel_lvds_connector_helper_funcs);
++      connector->display_info.subpixel_order = SubPixelHorizontalRGB;
++      connector->interlace_allowed = false;
++      connector->doublescan_allowed = false;
++
++      drm_connector_attach_property(connector, dev->mode_config.scaling_mode_property, DRM_MODE_SCALE_FULLSCREEN);
++      drm_connector_attach_property(connector, dev_priv->backlight_property, BRIGHTNESS_MAX_LEVEL);
++
++      lvds_backlight = BRIGHTNESS_MAX_LEVEL;
++
++      /*
++       * LVDS discovery:
++       * 1) check for EDID on DDC
++       * 2) check for VBT data
++       * 3) check to see if LVDS is already on
++       *    if none of the above, no panel
++       * 4) make sure lid is open
++       *    if closed, act like it's not there for now
++       */
++      i2c_adap = i2c_get_adapter(2);
++      if (i2c_adap == NULL)
++              printk(KERN_ALERT "No ddc adapter available!\n");
++      /* Set up the DDC bus. */
++/*    psb_intel_output->ddc_bus = psb_intel_i2c_create(dev, GPIOC, "LVDSDDC_C");
++      if (!psb_intel_output->ddc_bus) {
++              dev_printk(KERN_ERR, &dev->pdev->dev,
++                         "DDC bus registration " "failed.\n");
++              goto failed_ddc;
++      }*/
++
++      /*
++       * Attempt to get the fixed panel mode from DDC.  Assume that the
++       * preferred mode is the right one.
++       */
++      edid = drm_get_edid(connector, i2c_adap);
++      if (edid) {
++              drm_mode_connector_update_edid_property(connector, edid);
++              ret = drm_add_edid_modes(connector, edid);
++              kfree(edid);
++      }
++
++      list_for_each_entry(scan, &connector->probed_modes, head) {
++              if (scan->type & DRM_MODE_TYPE_PREFERRED) {
++                      mode_dev->panel_fixed_mode =
++                          drm_mode_duplicate(dev, scan);
++                      goto out;       /* FIXME: check for quirks */
++              }
++      }
++
++      /*
++       * If we didn't get EDID, try geting panel timing
++       * from configuration data
++       */
++      mode_dev->panel_fixed_mode = mrst_lvds_get_configuration_mode(dev);
++
++      if (mode_dev->panel_fixed_mode) {
++              mode_dev->panel_fixed_mode->type |=
++                  DRM_MODE_TYPE_PREFERRED;
++              goto out;       /* FIXME: check for quirks */
++      }
++
++      /* If we still don't have a mode after all that, give up. */
++      if (!mode_dev->panel_fixed_mode) {
++              DRM_DEBUG
++                  ("Found no modes on the lvds, ignoring the LVDS\n");
++              goto failed_find;
++      }
++
++out:
++      drm_sysfs_connector_add(connector);
++      return;
++
++failed_find:
++      DRM_DEBUG("No LVDS modes found, disabling.\n");
++      if (psb_intel_output->ddc_bus)
++              psb_intel_i2c_destroy(psb_intel_output->ddc_bus);
++
++failed_ddc:
++
++      drm_encoder_cleanup(encoder);
++      drm_connector_cleanup(connector);
++      kfree(connector);
++}
++
++/* MRST platform end */
+diff --git a/drivers/gpu/drm/psb/psb_intel_modes.c b/drivers/gpu/drm/psb/psb_intel_modes.c
+new file mode 100644
+index 0000000..54abe86
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_modes.c
+@@ -0,0 +1,64 @@
++/*
++ * Copyright (c) 2007 Dave Airlie <airlied@linux.ie>
++ * Copyright (c) 2007 Intel Corporation
++ *   Jesse Barnes <jesse.barnes@intel.com>
++ */
++
++#include <linux/i2c.h>
++#include <linux/fb.h>
++#include <drm/drmP.h>
++#include "psb_intel_drv.h"
++
++/**
++ * psb_intel_ddc_probe
++ *
++ */
++bool psb_intel_ddc_probe(struct psb_intel_output *psb_intel_output)
++{
++      u8 out_buf[] = { 0x0, 0x0 };
++      u8 buf[2];
++      int ret;
++      struct i2c_msg msgs[] = {
++              {
++               .addr = 0x50,
++               .flags = 0,
++               .len = 1,
++               .buf = out_buf,
++               },
++              {
++               .addr = 0x50,
++               .flags = I2C_M_RD,
++               .len = 1,
++               .buf = buf,
++               }
++      };
++
++      ret = i2c_transfer(&psb_intel_output->ddc_bus->adapter, msgs, 2);
++      if (ret == 2)
++              return true;
++
++      return false;
++}
++
++/**
++ * psb_intel_ddc_get_modes - get modelist from monitor
++ * @connector: DRM connector device to use
++ *
++ * Fetch the EDID information from @connector using the DDC bus.
++ */
++int psb_intel_ddc_get_modes(struct psb_intel_output *psb_intel_output)
++{
++      struct edid *edid;
++      int ret = 0;
++
++      edid =
++          drm_get_edid(&psb_intel_output->base,
++                       &psb_intel_output->ddc_bus->adapter);
++      if (edid) {
++              drm_mode_connector_update_edid_property(&psb_intel_output->
++                                                      base, edid);
++              ret = drm_add_edid_modes(&psb_intel_output->base, edid);
++              kfree(edid);
++      }
++      return ret;
++}
+diff --git a/drivers/gpu/drm/psb/psb_intel_reg.h b/drivers/gpu/drm/psb/psb_intel_reg.h
+new file mode 100644
+index 0000000..7e22463
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_reg.h
+@@ -0,0 +1,1015 @@
++#define BLC_PWM_CTL           0x61254
++#define BLC_PWM_CTL2          0x61250
++#define BACKLIGHT_MODULATION_FREQ_SHIFT               (17)
++/**
++ * This is the most significant 15 bits of the number of backlight cycles in a
++ * complete cycle of the modulated backlight control.
++ *
++ * The actual value is this field multiplied by two.
++ */
++#define BACKLIGHT_MODULATION_FREQ_MASK                (0x7fff << 17)
++#define BLM_LEGACY_MODE                               (1 << 16)
++/**
++ * This is the number of cycles out of the backlight modulation cycle for which
++ * the backlight is on.
++ *
++ * This field must be no greater than the number of cycles in the complete
++ * backlight modulation cycle.
++ */
++#define BACKLIGHT_DUTY_CYCLE_SHIFT            (0)
++#define BACKLIGHT_DUTY_CYCLE_MASK             (0xffff)
++
++#define I915_GCFGC                    0xf0
++#define I915_LOW_FREQUENCY_ENABLE             (1 << 7)
++#define I915_DISPLAY_CLOCK_190_200_MHZ                (0 << 4)
++#define I915_DISPLAY_CLOCK_333_MHZ            (4 << 4)
++#define I915_DISPLAY_CLOCK_MASK                       (7 << 4)
++
++#define I855_HPLLCC                   0xc0
++#define I855_CLOCK_CONTROL_MASK                       (3 << 0)
++#define I855_CLOCK_133_200                    (0 << 0)
++#define I855_CLOCK_100_200                    (1 << 0)
++#define I855_CLOCK_100_133                    (2 << 0)
++#define I855_CLOCK_166_250                    (3 << 0)
++
++/* I830 CRTC registers */
++#define HTOTAL_A      0x60000
++#define HBLANK_A      0x60004
++#define HSYNC_A       0x60008
++#define VTOTAL_A      0x6000c
++#define VBLANK_A      0x60010
++#define VSYNC_A       0x60014
++#define PIPEASRC      0x6001c
++#define BCLRPAT_A     0x60020
++#define VSYNCSHIFT_A  0x60028
++
++#define HTOTAL_B      0x61000
++#define HBLANK_B      0x61004
++#define HSYNC_B       0x61008
++#define VTOTAL_B      0x6100c
++#define VBLANK_B      0x61010
++#define VSYNC_B       0x61014
++#define PIPEBSRC      0x6101c
++#define BCLRPAT_B     0x61020
++#define VSYNCSHIFT_B  0x61028
++
++#define PP_STATUS     0x61200
++# define PP_ON                                        (1 << 31)
++/**
++ * Indicates that all dependencies of the panel are on:
++ *
++ * - PLL enabled
++ * - pipe enabled
++ * - LVDS/DVOB/DVOC on
++ */
++# define PP_READY                             (1 << 30)
++# define PP_SEQUENCE_NONE                     (0 << 28)
++# define PP_SEQUENCE_ON                               (1 << 28)
++# define PP_SEQUENCE_OFF                      (2 << 28)
++# define PP_SEQUENCE_MASK                     0x30000000
++#define PP_CONTROL    0x61204
++# define POWER_TARGET_ON                      (1 << 0)
++
++#define LVDSPP_ON       0x61208
++#define LVDSPP_OFF      0x6120c
++#define PP_CYCLE        0x61210
++
++#define PFIT_CONTROL  0x61230
++# define PFIT_ENABLE                          (1 << 31)
++# define PFIT_PIPE_MASK                               (3 << 29)
++# define PFIT_PIPE_SHIFT                      29
++# define PFIT_SCALING_MODE_PILLARBOX            (1 << 27)
++# define PFIT_SCALING_MODE_LETTERBOX            (3 << 26)
++# define VERT_INTERP_DISABLE                  (0 << 10)
++# define VERT_INTERP_BILINEAR                 (1 << 10)
++# define VERT_INTERP_MASK                     (3 << 10)
++# define VERT_AUTO_SCALE                      (1 << 9)
++# define HORIZ_INTERP_DISABLE                 (0 << 6)
++# define HORIZ_INTERP_BILINEAR                        (1 << 6)
++# define HORIZ_INTERP_MASK                    (3 << 6)
++# define HORIZ_AUTO_SCALE                     (1 << 5)
++# define PANEL_8TO6_DITHER_ENABLE             (1 << 3)
++
++#define PFIT_PGM_RATIOS       0x61234
++# define PFIT_VERT_SCALE_MASK                 0xfff00000
++# define PFIT_HORIZ_SCALE_MASK                        0x0000fff0
++
++#define PFIT_AUTO_RATIOS      0x61238
++
++
++#define DPLL_A                0x06014
++#define DPLL_B                0x06018
++# define DPLL_VCO_ENABLE                      (1 << 31)
++# define DPLL_DVO_HIGH_SPEED                  (1 << 30)
++# define DPLL_SYNCLOCK_ENABLE                 (1 << 29)
++# define DPLL_VGA_MODE_DIS                    (1 << 28)
++# define DPLLB_MODE_DAC_SERIAL                        (1 << 26)       /* i915 */
++# define DPLLB_MODE_LVDS                      (2 << 26)       /* i915 */
++# define DPLL_MODE_MASK                               (3 << 26)
++# define DPLL_DAC_SERIAL_P2_CLOCK_DIV_10      (0 << 24)       /* i915 */
++# define DPLL_DAC_SERIAL_P2_CLOCK_DIV_5               (1 << 24)       /* i915 */
++# define DPLLB_LVDS_P2_CLOCK_DIV_14           (0 << 24)       /* i915 */
++# define DPLLB_LVDS_P2_CLOCK_DIV_7            (1 << 24)       /* i915 */
++# define DPLL_P2_CLOCK_DIV_MASK                       0x03000000      /* i915 */
++# define DPLL_FPA01_P1_POST_DIV_MASK          0x00ff0000      /* i915 */
++/**
++ *  The i830 generation, in DAC/serial mode, defines p1 as two plus this
++ * bitfield, or just 2 if PLL_P1_DIVIDE_BY_TWO is set.
++ */
++# define DPLL_FPA01_P1_POST_DIV_MASK_I830     0x001f0000
++/**
++ * The i830 generation, in LVDS mode, defines P1 as the bit number set within
++ * this field (only one bit may be set).
++ */
++# define DPLL_FPA01_P1_POST_DIV_MASK_I830_LVDS        0x003f0000
++# define DPLL_FPA01_P1_POST_DIV_SHIFT         16
++# define PLL_P2_DIVIDE_BY_4           (1 << 23)       /* i830, required
++                                                       * in DVO non-gang */
++# define PLL_P1_DIVIDE_BY_TWO                 (1 << 21)       /* i830 */
++# define PLL_REF_INPUT_DREFCLK                        (0 << 13)
++# define PLL_REF_INPUT_TVCLKINA                       (1 << 13)       /* i830 */
++# define PLL_REF_INPUT_TVCLKINBC              (2 << 13)       /* SDVO
++                                                               * TVCLKIN */
++# define PLLB_REF_INPUT_SPREADSPECTRUMIN      (3 << 13)
++# define PLL_REF_INPUT_MASK                   (3 << 13)
++# define PLL_LOAD_PULSE_PHASE_SHIFT           9
++/*
++ * Parallel to Serial Load Pulse phase selection.
++ * Selects the phase for the 10X DPLL clock for the PCIe
++ * digital display port. The range is 4 to 13; 10 or more
++ * is just a flip delay. The default is 6
++ */
++# define PLL_LOAD_PULSE_PHASE_MASK    (0xf << PLL_LOAD_PULSE_PHASE_SHIFT)
++# define DISPLAY_RATE_SELECT_FPA1     (1 << 8)
++
++/**
++ * SDVO multiplier for 945G/GM. Not used on 965.
++ *
++ * \sa DPLL_MD_UDI_MULTIPLIER_MASK
++ */
++# define SDVO_MULTIPLIER_MASK                 0x000000ff
++# define SDVO_MULTIPLIER_SHIFT_HIRES          4
++# define SDVO_MULTIPLIER_SHIFT_VGA            0
++
++/** @defgroup DPLL_MD
++ * @{
++ */
++/** Pipe A SDVO/UDI clock multiplier/divider register for G965. */
++#define DPLL_A_MD             0x0601c
++/** Pipe B SDVO/UDI clock multiplier/divider register for G965. */
++#define DPLL_B_MD             0x06020
++/**
++ * UDI pixel divider, controlling how many pixels are stuffed into a packet.
++ *
++ * Value is pixels minus 1.  Must be set to 1 pixel for SDVO.
++ */
++# define DPLL_MD_UDI_DIVIDER_MASK             0x3f000000
++# define DPLL_MD_UDI_DIVIDER_SHIFT            24
++/** UDI pixel divider for VGA, same as DPLL_MD_UDI_DIVIDER_MASK. */
++# define DPLL_MD_VGA_UDI_DIVIDER_MASK         0x003f0000
++# define DPLL_MD_VGA_UDI_DIVIDER_SHIFT                16
++/**
++ * SDVO/UDI pixel multiplier.
++ *
++ * SDVO requires that the bus clock rate be between 1 and 2 Ghz, and the bus
++ * clock rate is 10 times the DPLL clock.  At low resolution/refresh rate
++ * modes, the bus rate would be below the limits, so SDVO allows for stuffing
++ * dummy bytes in the datastream at an increased clock rate, with both sides of
++ * the link knowing how many bytes are fill.
++ *
++ * So, for a mode with a dotclock of 65Mhz, we would want to double the clock
++ * rate to 130Mhz to get a bus rate of 1.30Ghz.  The DPLL clock rate would be
++ * set to 130Mhz, and the SDVO multiplier set to 2x in this register and
++ * through an SDVO command.
++ *
++ * This register field has values of multiplication factor minus 1, with
++ * a maximum multiplier of 5 for SDVO.
++ */
++# define DPLL_MD_UDI_MULTIPLIER_MASK          0x00003f00
++# define DPLL_MD_UDI_MULTIPLIER_SHIFT         8
++/** SDVO/UDI pixel multiplier for VGA, same as DPLL_MD_UDI_MULTIPLIER_MASK.
++ * This best be set to the default value (3) or the CRT won't work. No,
++ * I don't entirely understand what this does...
++ */
++# define DPLL_MD_VGA_UDI_MULTIPLIER_MASK      0x0000003f
++# define DPLL_MD_VGA_UDI_MULTIPLIER_SHIFT     0
++/** @} */
++
++#define DPLL_TEST             0x606c
++# define DPLLB_TEST_SDVO_DIV_1                        (0 << 22)
++# define DPLLB_TEST_SDVO_DIV_2                        (1 << 22)
++# define DPLLB_TEST_SDVO_DIV_4                        (2 << 22)
++# define DPLLB_TEST_SDVO_DIV_MASK             (3 << 22)
++# define DPLLB_TEST_N_BYPASS                  (1 << 19)
++# define DPLLB_TEST_M_BYPASS                  (1 << 18)
++# define DPLLB_INPUT_BUFFER_ENABLE            (1 << 16)
++# define DPLLA_TEST_N_BYPASS                  (1 << 3)
++# define DPLLA_TEST_M_BYPASS                  (1 << 2)
++# define DPLLA_INPUT_BUFFER_ENABLE            (1 << 0)
++
++#define ADPA                  0x61100
++#define ADPA_DAC_ENABLE       (1<<31)
++#define ADPA_DAC_DISABLE      0
++#define ADPA_PIPE_SELECT_MASK (1<<30)
++#define ADPA_PIPE_A_SELECT    0
++#define ADPA_PIPE_B_SELECT    (1<<30)
++#define ADPA_USE_VGA_HVPOLARITY (1<<15)
++#define ADPA_SETS_HVPOLARITY  0
++#define ADPA_VSYNC_CNTL_DISABLE (1<<11)
++#define ADPA_VSYNC_CNTL_ENABLE        0
++#define ADPA_HSYNC_CNTL_DISABLE (1<<10)
++#define ADPA_HSYNC_CNTL_ENABLE        0
++#define ADPA_VSYNC_ACTIVE_HIGH        (1<<4)
++#define ADPA_VSYNC_ACTIVE_LOW 0
++#define ADPA_HSYNC_ACTIVE_HIGH        (1<<3)
++#define ADPA_HSYNC_ACTIVE_LOW 0
++
++#define FPA0          0x06040
++#define FPA1          0x06044
++#define FPB0          0x06048
++#define FPB1          0x0604c
++# define FP_N_DIV_MASK                                0x003f0000
++# define FP_N_DIV_SHIFT                               16
++# define FP_M1_DIV_MASK                               0x00003f00
++# define FP_M1_DIV_SHIFT                      8
++# define FP_M2_DIV_MASK                               0x0000003f
++# define FP_M2_DIV_SHIFT                      0
++
++
++#define PORT_HOTPLUG_EN               0x61110
++# define SDVOB_HOTPLUG_INT_EN                 (1 << 26)
++# define SDVOC_HOTPLUG_INT_EN                 (1 << 25)
++# define TV_HOTPLUG_INT_EN                    (1 << 18)
++# define CRT_HOTPLUG_INT_EN                   (1 << 9)
++# define CRT_HOTPLUG_FORCE_DETECT             (1 << 3)
++
++#define PORT_HOTPLUG_STAT     0x61114
++# define CRT_HOTPLUG_INT_STATUS                       (1 << 11)
++# define TV_HOTPLUG_INT_STATUS                        (1 << 10)
++# define CRT_HOTPLUG_MONITOR_MASK             (3 << 8)
++# define CRT_HOTPLUG_MONITOR_COLOR            (3 << 8)
++# define CRT_HOTPLUG_MONITOR_MONO             (2 << 8)
++# define CRT_HOTPLUG_MONITOR_NONE             (0 << 8)
++# define SDVOC_HOTPLUG_INT_STATUS             (1 << 7)
++# define SDVOB_HOTPLUG_INT_STATUS             (1 << 6)
++
++#define SDVOB                 0x61140
++#define SDVOC                 0x61160
++#define SDVO_ENABLE                           (1 << 31)
++#define SDVO_PIPE_B_SELECT                    (1 << 30)
++#define SDVO_STALL_SELECT                     (1 << 29)
++#define SDVO_INTERRUPT_ENABLE                 (1 << 26)
++/**
++ * 915G/GM SDVO pixel multiplier.
++ *
++ * Programmed value is multiplier - 1, up to 5x.
++ *
++ * \sa DPLL_MD_UDI_MULTIPLIER_MASK
++ */
++#define SDVO_PORT_MULTIPLY_MASK                       (7 << 23)
++#define SDVO_PORT_MULTIPLY_SHIFT              23
++#define SDVO_PHASE_SELECT_MASK                        (15 << 19)
++#define SDVO_PHASE_SELECT_DEFAULT             (6 << 19)
++#define SDVO_CLOCK_OUTPUT_INVERT              (1 << 18)
++#define SDVOC_GANG_MODE                               (1 << 16)
++#define SDVO_BORDER_ENABLE                    (1 << 7)
++#define SDVOB_PCIE_CONCURRENCY                        (1 << 3)
++#define SDVO_DETECTED                         (1 << 2)
++/* Bits to be preserved when writing */
++#define SDVOB_PRESERVE_MASK           ((1 << 17) | (1 << 16) | (1 << 14))
++#define SDVOC_PRESERVE_MASK                   (1 << 17)
++
++/** @defgroup LVDS
++ * @{
++ */
++/**
++ * This register controls the LVDS output enable, pipe selection, and data
++ * format selection.
++ *
++ * All of the clock/data pairs are force powered down by power sequencing.
++ */
++#define LVDS                  0x61180
++/**
++ * Enables the LVDS port.  This bit must be set before DPLLs are enabled, as
++ * the DPLL semantics change when the LVDS is assigned to that pipe.
++ */
++# define LVDS_PORT_EN                 (1 << 31)
++/** Selects pipe B for LVDS data.  Must be set on pre-965. */
++# define LVDS_PIPEB_SELECT            (1 << 30)
++
++/** Turns on border drawing to allow centered display. */
++# define LVDS_BORDER_EN                 (1 << 15)
++
++/**
++ * Enables the A0-A2 data pairs and CLKA, containing 18 bits of color data per
++ * pixel.
++ */
++# define LVDS_A0A2_CLKA_POWER_MASK    (3 << 8)
++# define LVDS_A0A2_CLKA_POWER_DOWN    (0 << 8)
++# define LVDS_A0A2_CLKA_POWER_UP      (3 << 8)
++/**
++ * Controls the A3 data pair, which contains the additional LSBs for 24 bit
++ * mode.  Only enabled if LVDS_A0A2_CLKA_POWER_UP also indicates it should be
++ * on.
++ */
++# define LVDS_A3_POWER_MASK           (3 << 6)
++# define LVDS_A3_POWER_DOWN           (0 << 6)
++# define LVDS_A3_POWER_UP             (3 << 6)
++/**
++ * Controls the CLKB pair.  This should only be set when LVDS_B0B3_POWER_UP
++ * is set.
++ */
++# define LVDS_CLKB_POWER_MASK         (3 << 4)
++# define LVDS_CLKB_POWER_DOWN         (0 << 4)
++# define LVDS_CLKB_POWER_UP           (3 << 4)
++
++/**
++ * Controls the B0-B3 data pairs.  This must be set to match the DPLL p2
++ * setting for whether we are in dual-channel mode.  The B3 pair will
++ * additionally only be powered up when LVDS_A3_POWER_UP is set.
++ */
++# define LVDS_B0B3_POWER_MASK         (3 << 2)
++# define LVDS_B0B3_POWER_DOWN         (0 << 2)
++# define LVDS_B0B3_POWER_UP           (3 << 2)
++
++#define PIPEACONF 0x70008
++#define PIPEACONF_ENABLE      (1<<31)
++#define PIPEACONF_DISABLE     0
++#define PIPEACONF_DOUBLE_WIDE (1<<30)
++#define I965_PIPECONF_ACTIVE  (1<<30)
++#define PIPEACONF_SINGLE_WIDE 0
++#define PIPEACONF_PIPE_UNLOCKED 0
++#define PIPEACONF_PIPE_LOCKED (1<<25)
++#define PIPEACONF_PALETTE     0
++#define PIPEACONF_GAMMA       (1<<24)
++#define PIPECONF_FORCE_BORDER (1<<25)
++#define PIPECONF_PROGRESSIVE  (0 << 21)
++#define PIPECONF_INTERLACE_W_FIELD_INDICATION (6 << 21)
++#define PIPECONF_INTERLACE_FIELD_0_ONLY               (7 << 21)
++
++#define PIPEBCONF 0x71008
++#define PIPEBCONF_ENABLE      (1<<31)
++#define PIPEBCONF_DISABLE     0
++#define PIPEBCONF_DOUBLE_WIDE (1<<30)
++#define PIPEBCONF_DISABLE     0
++#define PIPEBCONF_GAMMA       (1<<24)
++#define PIPEBCONF_PALETTE     0
++
++#define PIPEBGCMAXRED         0x71010
++#define PIPEBGCMAXGREEN               0x71014
++#define PIPEBGCMAXBLUE                0x71018
++
++#define PIPEASTAT       0x70024
++#define PIPEBSTAT             0x71024
++#define PIPE_VBLANK_CLEAR         (1 << 1)
++#define PIPE_START_VBLANK_INTERRUPT_ENABLE    (1UL<<18)
++#define PIPE_VBLANK_INTERRUPT_ENABLE          (1UL<<17)
++
++#define PIPEAFRAMEHIGH                0x70040
++#define PIPEAFRAMEPIXEL               0x70044
++#define PIPEBFRAMEHIGH                0x71040
++#define PIPEBFRAMEPIXEL               0x71044
++#define PIPE_FRAME_HIGH_MASK    0x0000ffff
++#define PIPE_FRAME_HIGH_SHIFT   0
++#define PIPE_FRAME_LOW_MASK     0xff000000
++#define PIPE_FRAME_LOW_SHIFT    24
++#define PIPE_PIXEL_MASK         0x00ffffff
++#define PIPE_PIXEL_SHIFT        0
++
++#define DSPARB                        0x70030
++#define DSPFW1                        0x70034
++#define DSPFW2                        0x70038
++#define DSPFW3                        0x7003c
++#define DSPFW4                        0x70050
++#define DSPFW5                        0x70054
++#define DSPFW6                        0x70058
++#define DSPCHICKENBIT         0x70400
++#define DSPACNTR              0x70180
++#define DSPBCNTR              0x71180
++#define DISPLAY_PLANE_ENABLE                  (1<<31)
++#define DISPLAY_PLANE_DISABLE                 0
++#define DISPPLANE_GAMMA_ENABLE                        (1<<30)
++#define DISPPLANE_GAMMA_DISABLE                       0
++#define DISPPLANE_PIXFORMAT_MASK              (0xf<<26)
++#define DISPPLANE_8BPP                                (0x2<<26)
++#define DISPPLANE_15_16BPP                    (0x4<<26)
++#define DISPPLANE_16BPP                               (0x5<<26)
++#define DISPPLANE_32BPP_NO_ALPHA              (0x6<<26)
++#define DISPPLANE_32BPP                               (0x7<<26)
++#define DISPPLANE_STEREO_ENABLE                       (1<<25)
++#define DISPPLANE_STEREO_DISABLE              0
++#define DISPPLANE_SEL_PIPE_MASK                       (1<<24)
++#define DISPPLANE_SEL_PIPE_A                  0
++#define DISPPLANE_SEL_PIPE_B                  (1<<24)
++#define DISPPLANE_SRC_KEY_ENABLE              (1<<22)
++#define DISPPLANE_SRC_KEY_DISABLE             0
++#define DISPPLANE_LINE_DOUBLE                 (1<<20)
++#define DISPPLANE_NO_LINE_DOUBLE              0
++#define DISPPLANE_STEREO_POLARITY_FIRST               0
++#define DISPPLANE_STEREO_POLARITY_SECOND      (1<<18)
++/* plane B only */
++#define DISPPLANE_ALPHA_TRANS_ENABLE          (1<<15)
++#define DISPPLANE_ALPHA_TRANS_DISABLE         0
++#define DISPPLANE_SPRITE_ABOVE_DISPLAYA               0
++#define DISPPLANE_SPRITE_ABOVE_OVERLAY                (1)
++
++#define DSPABASE              0x70184
++#define DSPALINOFF            0x70184
++#define DSPASTRIDE            0x70188
++
++#define DSPBBASE              0x71184
++#define DSPBLINOFF            0X71184
++#define DSPBADDR              DSPBBASE
++#define DSPBSTRIDE            0x71188
++
++#define DSPAKEYVAL            0x70194
++#define DSPAKEYMASK           0x70198
++
++#define DSPAPOS                       0x7018C /* reserved */
++#define DSPASIZE              0x70190
++#define DSPBPOS                       0x7118C
++#define DSPBSIZE              0x71190
++
++#define DSPASURF              0x7019C
++#define DSPATILEOFF           0x701A4
++
++#define DSPBSURF              0x7119C
++#define DSPBTILEOFF           0x711A4
++
++#define VGACNTRL              0x71400
++# define VGA_DISP_DISABLE                     (1 << 31)
++# define VGA_2X_MODE                          (1 << 30)
++# define VGA_PIPE_B_SELECT                    (1 << 29)
++
++/*
++ * Overlay registers
++ */
++#define OV_OVADD              0x30000
++#define OV_OGAMC5             0x30010
++#define OV_OGAMC4             0x30014
++#define OV_OGAMC3             0x30018
++#define OV_OGAMC2             0x3001C
++#define OV_OGAMC1             0x30020
++#define OV_OGAMC0             0x30024
++
++/*
++ * Some BIOS scratch area registers.  The 845 (and 830?) store the amount
++ * of video memory available to the BIOS in SWF1.
++ */
++
++#define SWF0                  0x71410
++#define SWF1                  0x71414
++#define SWF2                  0x71418
++#define SWF3                  0x7141c
++#define SWF4                  0x71420
++#define SWF5                  0x71424
++#define SWF6                  0x71428
++
++/*
++ * 855 scratch registers.
++ */
++#define SWF00                 0x70410
++#define SWF01                 0x70414
++#define SWF02                 0x70418
++#define SWF03                 0x7041c
++#define SWF04                 0x70420
++#define SWF05                 0x70424
++#define SWF06                 0x70428
++
++#define SWF10                 SWF0
++#define SWF11                 SWF1
++#define SWF12                 SWF2
++#define SWF13                 SWF3
++#define SWF14                 SWF4
++#define SWF15                 SWF5
++#define SWF16                 SWF6
++
++#define SWF30                 0x72414
++#define SWF31                 0x72418
++#define SWF32                 0x7241c
++
++
++/*
++ * Palette registers
++ */
++#define PALETTE_A             0x0a000
++#define PALETTE_B             0x0a800
++
++#define IS_I830(dev) ((dev)->pci_device == PCI_DEVICE_ID_INTEL_82830_CGC)
++#define IS_845G(dev) ((dev)->pci_device == PCI_DEVICE_ID_INTEL_82845G_IG)
++#define IS_I85X(dev) ((dev)->pci_device == PCI_DEVICE_ID_INTEL_82855GM_IG)
++#define IS_I855(dev) ((dev)->pci_device == PCI_DEVICE_ID_INTEL_82855GM_IG)
++#define IS_I865G(dev) ((dev)->pci_device == PCI_DEVICE_ID_INTEL_82865_IG)
++
++
++/* || dev->pci_device == PCI_DEVICE_ID_INTELPCI_CHIP_E7221_G) */
++#define IS_I915G(dev) (dev->pci_device == PCI_DEVICE_ID_INTEL_82915G_IG)
++#define IS_I915GM(dev) ((dev)->pci_device == PCI_DEVICE_ID_INTEL_82915GM_IG)
++#define IS_I945G(dev) ((dev)->pci_device == PCI_DEVICE_ID_INTEL_82945G_IG)
++#define IS_I945GM(dev) ((dev)->pci_device == PCI_DEVICE_ID_INTEL_82945GM_IG)
++
++#define IS_I965G(dev) ((dev)->pci_device == 0x2972 || \
++                     (dev)->pci_device == 0x2982 || \
++                     (dev)->pci_device == 0x2992 || \
++                     (dev)->pci_device == 0x29A2 || \
++                     (dev)->pci_device == 0x2A02 || \
++                     (dev)->pci_device == 0x2A12)
++
++#define IS_I965GM(dev) ((dev)->pci_device == 0x2A02)
++
++#define IS_G33(dev)    ((dev)->pci_device == 0x29C2 ||        \
++                      (dev)->pci_device == 0x29B2 ||  \
++                      (dev)->pci_device == 0x29D2)
++
++#define IS_I9XX(dev) (IS_I915G(dev) || IS_I915GM(dev) || IS_I945G(dev) || \
++                    IS_I945GM(dev) || IS_I965G(dev) || IS_POULSBO(dev) || \
++                    IS_MRST(dev))
++
++#define IS_MOBILE(dev) (IS_I830(dev) || IS_I85X(dev) || IS_I915GM(dev) || \
++                      IS_I945GM(dev) || IS_I965GM(dev) || \
++                      IS_POULSBO(dev) || IS_MRST(dev))
++
++/* Cursor A & B regs */
++#define CURACNTR              0x70080
++#define   CURSOR_MODE_DISABLE   0x00
++#define   CURSOR_MODE_64_32B_AX 0x07
++#define   CURSOR_MODE_64_ARGB_AX ((1 << 5) | CURSOR_MODE_64_32B_AX)
++#define   MCURSOR_GAMMA_ENABLE  (1 << 26)
++#define CURABASE              0x70084
++#define CURAPOS                       0x70088
++#define   CURSOR_POS_MASK       0x007FF
++#define   CURSOR_POS_SIGN       0x8000
++#define   CURSOR_X_SHIFT        0
++#define   CURSOR_Y_SHIFT        16
++#define CURBCNTR              0x700c0
++#define CURBBASE              0x700c4
++#define CURBPOS                       0x700c8
++
++/*
++ * Interrupt Registers
++ */
++#define IER 0x020a0
++#define IIR 0x020a4
++#define IMR 0x020a8
++#define ISR 0x020ac
++
++/*
++ * MOORESTOWN delta registers
++ */
++#define MRST_DPLL_A           0x0f014
++#define DPLLA_MODE_LVDS                       (2 << 26)       /* mrst */
++#define MRST_FPA0             0x0f040
++#define MRST_FPA1             0x0f044
++#define MRST_PERF_MODE                0x020f4
++
++/* #define LVDS                       0x61180 */
++# define MRST_PANEL_8TO6_DITHER_ENABLE                (1 << 25)
++# define MRST_PANEL_24_DOT_1_FORMAT           (1 << 24)
++# define LVDS_A3_POWER_UP_0_OUTPUT            (1 << 6)
++
++#define MIPI                  0x61190
++# define MIPI_PORT_EN                 (1 << 31)
++/** Turns on border drawing to allow centered display. */
++# define MIPI_BORDER_EN                       (1 << 15)
++
++/* #define PP_CONTROL 0x61204 */
++# define POWER_DOWN_ON_RESET          (1 << 1)
++
++/* #define PFIT_CONTROL       0x61230 */
++# define PFIT_PIPE_SELECT                             (3 << 29)
++# define PFIT_PIPE_SELECT_SHIFT                       (29)
++
++/* #define BLC_PWM_CTL                0x61254 */
++#define MRST_BACKLIGHT_MODULATION_FREQ_SHIFT          (16)
++#define MRST_BACKLIGHT_MODULATION_FREQ_MASK           (0xffff << 16)
++
++/* #define PIPEACONF 0x70008 */
++#define PIPEACONF_PIPE_STATE  (1<<30)
++/* #define DSPACNTR           0x70180 */
++#if 0                         /*FIXME JLIU7 need to define the following */
++1000 = 32 - bit RGBX(10 : 10 : 10 : 2)
++pixel format.Ignore alpha.1010 = BGRX 10 : 10 : 10 : 2 1100 = 64 - bit RGBX
++(16 : 16 : 16 : 16) 16 bit floating point pixel format.
++Ignore alpha.1110 = 32 - bit RGBX(8 : 8 : 8 : 8) pixel format.
++    Ignore
++    alpha.
++#endif                                /*FIXME JLIU7 need to define the following */
++
++#define MRST_DSPABASE         0x7019c
++
++/*
++ * MOORESTOWN reserved registers
++ */
++#if 0
++#define DSPAPOS                       0x7018C /* reserved */
++#define DSPASIZE              0x70190
++#endif
++/*
++ * Moorestown registers.
++ */
++/*===========================================================================
++; General Constants
++;--------------------------------------------------------------------------*/
++#define BIT0  0x00000001
++#define BIT1  0x00000002
++#define BIT2  0x00000004
++#define BIT3  0x00000008
++#define BIT4  0x00000010
++#define BIT5  0x00000020
++#define BIT6  0x00000040
++#define BIT7  0x00000080
++#define BIT8  0x00000100
++#define BIT9  0x00000200
++#define BIT10 0x00000400
++#define BIT11 0x00000800
++#define BIT12 0x00001000
++#define BIT13 0x00002000
++#define BIT14 0x00004000
++#define BIT15 0x00008000
++#define BIT16 0x00010000
++#define BIT17 0x00020000
++#define BIT18 0x00040000
++#define BIT19 0x00080000
++#define BIT20 0x00100000
++#define BIT21 0x00200000
++#define BIT22 0x00400000
++#define BIT23 0x00800000
++#define BIT24 0x01000000
++#define BIT25 0x02000000
++#define BIT26 0x04000000
++#define BIT27 0x08000000
++#define BIT28 0x10000000
++#define BIT29 0x20000000
++#define BIT30 0x40000000
++#define BIT31 0x80000000
++/*===========================================================================
++; MIPI IP registers
++;--------------------------------------------------------------------------*/
++#define DEVICE_READY_REG             0xb000
++#define INTR_STAT_REG                0xb004
++#define RX_SOT_ERROR BIT0
++#define RX_SOT_SYNC_ERROR BIT1
++#define RX_ESCAPE_MODE_ENTRY_ERROR BIT3
++#define RX_LP_TX_SYNC_ERROR BIT4
++#define RX_HS_RECEIVE_TIMEOUT_ERROR BIT5
++#define RX_FALSE_CONTROL_ERROR BIT6
++#define RX_ECC_SINGLE_BIT_ERROR BIT7
++#define RX_ECC_MULTI_BIT_ERROR BIT8
++#define RX_CHECKSUM_ERROR BIT9
++#define RX_DSI_DATA_TYPE_NOT_RECOGNIZED BIT10
++#define RX_DSI_VC_ID_INVALID BIT11
++#define TX_FALSE_CONTROL_ERROR BIT12
++#define TX_ECC_SINGLE_BIT_ERROR BIT13
++#define TX_ECC_MULTI_BIT_ERROR BIT14
++#define TX_CHECKSUM_ERROR BIT15
++#define TX_DSI_DATA_TYPE_NOT_RECOGNIZED BIT16
++#define TX_DSI_VC_ID_INVALID BIT17
++#define HIGH_CONTENTION BIT18
++#define LOW_CONTENTION BIT19
++#define DPI_FIFO_UNDER_RUN BIT20
++#define HS_TX_TIMEOUT BIT21
++#define LP_RX_TIMEOUT BIT22
++#define TURN_AROUND_ACK_TIMEOUT BIT23
++#define ACK_WITH_NO_ERROR BIT24
++#define INTR_EN_REG                  0xb008
++#define DSI_FUNC_PRG_REG             0xb00c
++#define DPI_CHANNEL_NUMBER_POS   0x03
++#define DBI_CHANNEL_NUMBER_POS   0x05
++#define FMT_DPI_POS              0x07
++#define FMT_DBI_POS              0x0A
++#define DBI_DATA_WIDTH_POS       0x0D
++#define HS_TX_TIMEOUT_REG            0xb010
++#define LP_RX_TIMEOUT_REG            0xb014
++#define TURN_AROUND_TIMEOUT_REG      0xb018
++#define DEVICE_RESET_REG             0xb01C
++#define DPI_RESOLUTION_REG           0xb020
++#define RES_V_POS                0x10
++#define DBI_RESOLUTION_REG           0xb024
++#define HORIZ_SYNC_PAD_COUNT_REG     0xb028
++#define HORIZ_BACK_PORCH_COUNT_REG   0xb02C
++#define HORIZ_FRONT_PORCH_COUNT_REG  0xb030
++#define HORIZ_ACTIVE_AREA_COUNT_REG  0xb034
++#define VERT_SYNC_PAD_COUNT_REG      0xb038
++#define VERT_BACK_PORCH_COUNT_REG    0xb03c
++#define VERT_FRONT_PORCH_COUNT_REG   0xb040
++#define HIGH_LOW_SWITCH_COUNT_REG    0xb044
++#define DPI_CONTROL_REG              0xb048
++#define DPI_SHUT_DOWN            BIT0
++#define DPI_TURN_ON              BIT1
++#define DPI_COLOR_MODE_ON        BIT2
++#define DPI_COLOR_MODE_OFF       BIT3
++#define DPI_BACK_LIGHT_ON        BIT4
++#define DPI_BACK_LIGHT_OFF       BIT5
++#define DPI_LP                   BIT6
++#define DPI_DATA_REG                 0xb04c
++#define DPI_BACK_LIGHT_ON_DATA   0x07
++#define DPI_BACK_LIGHT_OFF_DATA  0x17
++#define INIT_COUNT_REG               0xb050
++#define MAX_RET_PAK_REG              0xb054
++#define VIDEO_FMT_REG                0xb058
++#define EOT_DISABLE_REG              0xb05c
++#define LP_BYTECLK_REG               0xb060
++#define LP_GEN_DATA_REG              0xb064
++#define HS_GEN_DATA_REG              0xb068
++#define LP_GEN_CTRL_REG              0xb06C
++#define HS_GEN_CTRL_REG              0xb070
++#define GEN_FIFO_STAT_REG            0xb074
++#define HS_DATA_FIFO_FULL        BIT0
++#define HS_DATA_FIFO_HALF_EMPTY  BIT1
++#define HS_DATA_FIFO_EMPTY       BIT2
++#define LP_DATA_FIFO_FULL        BIT8
++#define LP_DATA_FIFO_HALF_EMPTY  BIT9
++#define LP_DATA_FIFO_EMPTY       BIT10
++#define HS_CTRL_FIFO_FULL        BIT16
++#define HS_CTRL_FIFO_HALF_EMPTY  BIT17
++#define HS_CTRL_FIFO_EMPTY       BIT18
++#define LP_CTRL_FIFO_FULL        BIT24
++#define LP_CTRL_FIFO_HALF_EMPTY  BIT25
++#define LP_CTRL_FIFO_EMPTY       BIT26
++/*===========================================================================
++; MIPI Adapter registers
++;--------------------------------------------------------------------------*/
++#define MIPI_CONTROL_REG             0xb104
++#define MIPI_2X_CLOCK_BITS       (BIT0 | BIT1)
++#define MIPI_DATA_ADDRESS_REG        0xb108
++#define MIPI_DATA_LENGTH_REG         0xb10C
++#define MIPI_COMMAND_ADDRESS_REG     0xb110
++#define MIPI_COMMAND_LENGTH_REG      0xb114
++#define MIPI_READ_DATA_RETURN_REG0   0xb118
++#define MIPI_READ_DATA_RETURN_REG1   0xb11C
++#define MIPI_READ_DATA_RETURN_REG2   0xb120
++#define MIPI_READ_DATA_RETURN_REG3   0xb124
++#define MIPI_READ_DATA_RETURN_REG4   0xb128
++#define MIPI_READ_DATA_RETURN_REG5   0xb12C
++#define MIPI_READ_DATA_RETURN_REG6   0xb130
++#define MIPI_READ_DATA_RETURN_REG7   0xb134
++#define MIPI_READ_DATA_VALID_REG     0xb138
++/* DBI COMMANDS */
++#define soft_reset                   0x01
++/* ************************************************************************* *\
++The display module performs a software reset.
++Registers are written with their SW Reset default values.
++\* ************************************************************************* */
++#define get_power_mode               0x0a
++/* ************************************************************************* *\
++The display module returns the current power mode
++\* ************************************************************************* */
++#define get_address_mode             0x0b
++/* ************************************************************************* *\
++The display module returns the current status.
++\* ************************************************************************* */
++#define get_pixel_format             0x0c
++/* ************************************************************************* *\
++This command gets the pixel format for the RGB image data
++used by the interface.
++\* ************************************************************************* */
++#define get_display_mode             0x0d
++/* ************************************************************************* *\
++The display module returns the Display Image Mode status.
++\* ************************************************************************* */
++#define get_signal_mode              0x0e
++/* ************************************************************************* *\
++The display module returns the Display Signal Mode.
++\* ************************************************************************* */
++#define get_diagnostic_result        0x0f
++/* ************************************************************************* *\
++The display module returns the self-diagnostic results following
++a Sleep Out command.
++\* ************************************************************************* */
++#define enter_sleep_mode             0x10
++/* ************************************************************************* *\
++This command causes the display module to enter the Sleep mode.
++In this mode, all unnecessary blocks inside the display module are disabled
++except interface communication. This is the lowest power mode
++the display module supports.
++\* ************************************************************************* */
++#define exit_sleep_mode              0x11
++/* ************************************************************************* *\
++This command causes the display module to exit Sleep mode.
++All blocks inside the display module are enabled.
++\* ************************************************************************* */
++#define enter_partial_mode           0x12
++/* ************************************************************************* *\
++This command causes the display module to enter the Partial Display Mode.
++The Partial Display Mode window is described by the set_partial_area command.
++\* ************************************************************************* */
++#define enter_normal_mode            0x13
++/* ************************************************************************* *\
++This command causes the display module to enter the Normal mode.
++Normal Mode is defined as Partial Display mode and Scroll mode are off
++\* ************************************************************************* */
++#define exit_invert_mode             0x20
++/* ************************************************************************* *\
++This command causes the display module to stop inverting the image data on
++the display device. The frame memory contents remain unchanged.
++No status bits are changed.
++\* ************************************************************************* */
++#define enter_invert_mode            0x21
++/* ************************************************************************* *\
++This command causes the display module to invert the image data only on
++the display device. The frame memory contents remain unchanged.
++No status bits are changed.
++\* ************************************************************************* */
++#define set_gamma_curve              0x26
++/* ************************************************************************* *\
++This command selects the desired gamma curve for the display device.
++Four fixed gamma curves are defined in section DCS spec.
++\* ************************************************************************* */
++#define set_display_off              0x28
++/* ************************************************************************* *\
++This command causes the display module to stop displaying the image data
++on the display device. The frame memory contents remain unchanged.
++No status bits are changed.
++\* ************************************************************************* */
++#define set_display_on               0x29
++/* ************************************************************************* *\
++This command causes the display module to start displaying the image data
++on the display device. The frame memory contents remain unchanged.
++No status bits are changed.
++\* ************************************************************************* */
++#define set_column_address           0x2a
++/* ************************************************************************* *\
++This command defines the column extent of the frame memory accessed by the
++hostprocessor with the read_memory_continue and write_memory_continue commands.
++No status bits are changed.
++\* ************************************************************************* */
++#define set_page_address             0x2b
++/* ************************************************************************* *\
++This command defines the page extent of the frame memory accessed by the host
++processor with the write_memory_continue and read_memory_continue command.
++No status bits are changed.
++\* ************************************************************************* */
++#define write_mem_start              0x2c
++/* ************************************************************************* *\
++This command transfers image data from the host processor to the display
++module s frame memory starting at the pixel location specified by
++preceding set_column_address and set_page_address commands.
++\* ************************************************************************* */
++#define set_partial_area             0x30
++/* ************************************************************************* *\
++This command defines the Partial Display mode s display area.
++There are two parameters associated with
++this command, the first defines the Start Row (SR) and the second the End Row
++(ER). SR and ER refer to the Frame Memory Line Pointer.
++\* ************************************************************************* */
++#define set_scroll_area              0x33
++/* ************************************************************************* *\
++This command defines the display modules Vertical Scrolling Area.
++\* ************************************************************************* */
++#define set_tear_off                 0x34
++/* ************************************************************************* *\
++This command turns off the display modules Tearing Effect output signal on
++the TE signal line.
++\* ************************************************************************* */
++#define set_tear_on                  0x35
++/* ************************************************************************* *\
++This command turns on the display modules Tearing Effect output signal
++on the TE signal line.
++\* ************************************************************************* */
++#define set_address_mode             0x36
++/* ************************************************************************* *\
++This command sets the data order for transfers from the host processor to
++display modules frame memory,bits B[7:5] and B3, and from the display
++modules frame memory to the display device, bits B[2:0] and B4.
++\* ************************************************************************* */
++#define set_scroll_start             0x37
++/* ************************************************************************* *\
++This command sets the start of the vertical scrolling area in the frame memory.
++The vertical scrolling area is fully defined when this command is used with
++the set_scroll_area command The set_scroll_start command has one parameter,
++the Vertical Scroll Pointer. The VSP defines the line in the frame memory
++that is written to the display device as the first line of the vertical
++scroll area.
++\* ************************************************************************* */
++#define exit_idle_mode               0x38
++/* ************************************************************************* *\
++This command causes the display module to exit Idle mode.
++\* ************************************************************************* */
++#define enter_idle_mode              0x39
++/* ************************************************************************* *\
++This command causes the display module to enter Idle Mode.
++In Idle Mode, color expression is reduced. Colors are shown on the display
++device using the MSB of each of the R, G and B color components in the frame
++memory
++\* ************************************************************************* */
++#define set_pixel_format             0x3a
++/* ************************************************************************* *\
++This command sets the pixel format for the RGB image data used by the interface.
++Bits D[6:4]  DPI Pixel Format Definition
++Bits D[2:0]  DBI Pixel Format Definition
++Bits D7 and D3 are not used.
++\* ************************************************************************* */
++#define write_mem_cont               0x3c
++/* ************************************************************************* *\
++This command transfers image data from the host processor to the display
++module's frame memory continuing from the pixel location following the
++previous write_memory_continue or write_memory_start command.
++\* ************************************************************************* */
++#define set_tear_scanline            0x44
++/* ************************************************************************* *\
++This command turns on the display modules Tearing Effect output signal on the
++TE signal line when the display module reaches line N.
++\* ************************************************************************* */
++#define get_scanline                 0x45
++/* ************************************************************************* *\
++The display module returns the current scanline, N, used to update the
++display device. The total number of scanlines on a display device is
++defined as VSYNC + VBP + VACT + VFP.The first scanline is defined as
++the first line of V Sync and is denoted as Line 0.
++When in Sleep Mode, the value returned by get_scanline is undefined.
++\* ************************************************************************* */
++/* DCS Interface Pixel Formats */
++#define DCS_PIXEL_FORMAT_3BPP         0x1
++#define DCS_PIXEL_FORMAT_8BPP         0x2
++#define DCS_PIXEL_FORMAT_12BPP        0x3
++#define DCS_PIXEL_FORMAT_16BPP        0x5
++#define DCS_PIXEL_FORMAT_18BPP        0x6
++#define DCS_PIXEL_FORMAT_24BPP        0x7
++/* ONE PARAMETER READ DATA */
++#define addr_mode_data           0xfc
++#define diag_res_data            0x00
++#define disp_mode_data           0x23
++#define pxl_fmt_data             0x77
++#define pwr_mode_data            0x74
++#define sig_mode_data            0x00
++/* TWO PARAMETERS READ DATA */
++#define scanline_data1           0xff
++#define scanline_data2           0xff
++/* DPI PIXEL FORMATS */
++#define RGB_565_FMT                0x01       /* RGB 565 FORMAT */
++#define RGB_666_FMT                0x02       /* RGB 666 FORMAT */
++#define LRGB_666_FMT               0x03       /* RGB LOOSELY PACKED
++                                               * 666 FORMAT
++                                               */
++#define RGB_888_FMT                0x04       /* RGB 888 FORMAT */
++#define NON_BURST_MODE_SYNC_PULSE     0x01    /* Non Burst Mode
++                                               * with Sync Pulse
++                                               */
++#define NON_BURST_MODE_SYNC_EVENTS    0x02    /* Non Burst Mode
++                                               * with Sync events
++                                               */
++#define BURST_MODE                    0x03    /* Burst Mode */
++#define VIRTUAL_CHANNEL_NUMBER_0      0x00    /* Virtual channel 0 */
++#define VIRTUAL_CHANNEL_NUMBER_1      0x01    /* Virtual channel 1 */
++#define VIRTUAL_CHANNEL_NUMBER_2      0x02    /* Virtual channel 2 */
++#define VIRTUAL_CHANNEL_NUMBER_3      0x03    /* Virtual channel 3 */
++#define DBI_NOT_SUPPORTED             0x00    /* command mode
++                                               * is not supported
++                                               */
++#define DBI_DATA_WIDTH_16BIT          0x01    /* 16 bit data */
++#define DBI_DATA_WIDTH_9BIT                   0x02    /* 9 bit data */
++#define DBI_DATA_WIDTH_8BIT                   0x03    /* 8 bit data */
++#define DBI_COMMAND_BUFFER_SIZE               0x120   /* Allocate at least
++                                               * 0x100 Byte with 32
++                                               * byte alignment
++                                               */
++#define DBI_DATA_BUFFER_SIZE          0x120   /* Allocate at least
++                                               * 0x100 Byte with 32
++                                               * byte alignment
++                                               */
++#define ALIGNMENT_32BYTE_MASK         (~(BIT0|BIT1|BIT2|BIT3|BIT4))
++#define SKU_83                                                0x01
++#define SKU_100                                       0x02
++#define SKU_100L                                      0x04
++#define SKU_BYPASS                                    0x08
++#if 0
++/* ************************************************************************* *\
++DSI command data structure
++\* ************************************************************************* */
++union DSI_LONG_PACKET_HEADER {
++      u32 DSI_longPacketHeader;
++      struct {
++              u8 dataID;
++              u16 wordCount;
++              u8 ECC;
++      };
++#if 0                         /*FIXME JLIU7 */
++      struct {
++              u8 DT:6;
++              u8 VC:2;
++      };
++#endif                                /*FIXME JLIU7 */
++};
++
++union MIPI_ADPT_CMD_LNG_REG {
++      u32 commnadLengthReg;
++      struct {
++              u8 command0;
++              u8 command1;
++              u8 command2;
++              u8 command3;
++      };
++};
++
++struct SET_COLUMN_ADDRESS_DATA {
++      u8 command;
++      u16 SC;                 /* Start Column */
++      u16 EC;                 /* End Column */
++};
++
++struct SET_PAGE_ADDRESS_DATA {
++      u8 command;
++      u16 SP;                 /* Start Page */
++      u16 EP;                 /* End Page */
++};
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_intel_sdvo.c b/drivers/gpu/drm/psb/psb_intel_sdvo.c
+new file mode 100644
+index 0000000..9f68d8d
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_sdvo.c
+@@ -0,0 +1,1350 @@
++/*
++ * Copyright Â© 2006-2007 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
++ * DEALINGS IN THE SOFTWARE.
++ *
++ * Authors:
++ *    Eric Anholt <eric@anholt.net>
++ */
++/*
++ * Copyright 2006 Dave Airlie <airlied@linux.ie>
++ *   Jesse Barnes <jesse.barnes@intel.com>
++ */
++
++#include <linux/i2c.h>
++#include <linux/delay.h>
++#include <drm/drm_crtc.h>
++#include "psb_intel_sdvo_regs.h"
++
++struct psb_intel_sdvo_priv {
++      struct psb_intel_i2c_chan *i2c_bus;
++      int slaveaddr;
++      int output_device;
++
++      u16 active_outputs;
++
++      struct psb_intel_sdvo_caps caps;
++      int pixel_clock_min, pixel_clock_max;
++
++      int save_sdvo_mult;
++      u16 save_active_outputs;
++      struct psb_intel_sdvo_dtd save_input_dtd_1, save_input_dtd_2;
++      struct psb_intel_sdvo_dtd save_output_dtd[16];
++      u32 save_SDVOX;
++      u8 in_out_map[4];
++
++      u8 by_input_wiring;
++      u32 active_device;
++};
++
++/**
++ * Writes the SDVOB or SDVOC with the given value, but always writes both
++ * SDVOB and SDVOC to work around apparent hardware issues (according to
++ * comments in the BIOS).
++ */
++void psb_intel_sdvo_write_sdvox(struct psb_intel_output *psb_intel_output, u32 val)
++{
++      struct drm_device *dev = psb_intel_output->base.dev;
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      u32 bval = val, cval = val;
++      int i;
++
++      if (sdvo_priv->output_device == SDVOB)
++              cval = REG_READ(SDVOC);
++      else
++              bval = REG_READ(SDVOB);
++      /*
++       * Write the registers twice for luck. Sometimes,
++       * writing them only once doesn't appear to 'stick'.
++       * The BIOS does this too. Yay, magic
++       */
++      for (i = 0; i < 2; i++) {
++              REG_WRITE(SDVOB, bval);
++              REG_READ(SDVOB);
++              REG_WRITE(SDVOC, cval);
++              REG_READ(SDVOC);
++      }
++}
++
++static bool psb_intel_sdvo_read_byte(struct psb_intel_output *psb_intel_output,
++                               u8 addr, u8 *ch)
++{
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      u8 out_buf[2];
++      u8 buf[2];
++      int ret;
++
++      struct i2c_msg msgs[] = {
++              {
++               .addr = sdvo_priv->i2c_bus->slave_addr,
++               .flags = 0,
++               .len = 1,
++               .buf = out_buf,
++               },
++              {
++               .addr = sdvo_priv->i2c_bus->slave_addr,
++               .flags = I2C_M_RD,
++               .len = 1,
++               .buf = buf,
++               }
++      };
++
++      out_buf[0] = addr;
++      out_buf[1] = 0;
++
++      ret = i2c_transfer(&sdvo_priv->i2c_bus->adapter, msgs, 2);
++      if (ret == 2) {
++              /* DRM_DEBUG("got back from addr %02X = %02x\n",
++               * out_buf[0], buf[0]);
++               */
++              *ch = buf[0];
++              return true;
++      }
++
++      DRM_DEBUG("i2c transfer returned %d\n", ret);
++      return false;
++}
++
++static bool psb_intel_sdvo_write_byte(struct psb_intel_output *psb_intel_output,
++                                int addr, u8 ch)
++{
++      u8 out_buf[2];
++      struct i2c_msg msgs[] = {
++              {
++               .addr = psb_intel_output->i2c_bus->slave_addr,
++               .flags = 0,
++               .len = 2,
++               .buf = out_buf,
++               }
++      };
++
++      out_buf[0] = addr;
++      out_buf[1] = ch;
++
++      if (i2c_transfer(&psb_intel_output->i2c_bus->adapter, msgs, 1) == 1)
++              return true;
++      return false;
++}
++
++#define SDVO_CMD_NAME_ENTRY(cmd) {cmd, #cmd}
++/** Mapping of command numbers to names, for debug output */
++const static struct _sdvo_cmd_name {
++      u8 cmd;
++      char *name;
++} sdvo_cmd_names[] = {
++SDVO_CMD_NAME_ENTRY(SDVO_CMD_RESET),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_DEVICE_CAPS),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_FIRMWARE_REV),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_TRAINED_INPUTS),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_ACTIVE_OUTPUTS),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_ACTIVE_OUTPUTS),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_IN_OUT_MAP),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_IN_OUT_MAP),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_ATTACHED_DISPLAYS),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_HOT_PLUG_SUPPORT),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_ACTIVE_HOT_PLUG),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_ACTIVE_HOT_PLUG),
++          SDVO_CMD_NAME_ENTRY
++          (SDVO_CMD_GET_INTERRUPT_EVENT_SOURCE),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_TARGET_INPUT),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_TARGET_OUTPUT),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_INPUT_TIMINGS_PART1),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_INPUT_TIMINGS_PART2),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_INPUT_TIMINGS_PART1),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_INPUT_TIMINGS_PART2),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_INPUT_TIMINGS_PART1),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_OUTPUT_TIMINGS_PART1),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_OUTPUT_TIMINGS_PART2),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_OUTPUT_TIMINGS_PART1),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_OUTPUT_TIMINGS_PART2),
++          SDVO_CMD_NAME_ENTRY
++          (SDVO_CMD_CREATE_PREFERRED_INPUT_TIMING),
++          SDVO_CMD_NAME_ENTRY
++          (SDVO_CMD_GET_PREFERRED_INPUT_TIMING_PART1),
++          SDVO_CMD_NAME_ENTRY
++          (SDVO_CMD_GET_PREFERRED_INPUT_TIMING_PART2),
++          SDVO_CMD_NAME_ENTRY
++          (SDVO_CMD_GET_INPUT_PIXEL_CLOCK_RANGE),
++          SDVO_CMD_NAME_ENTRY
++          (SDVO_CMD_GET_OUTPUT_PIXEL_CLOCK_RANGE),
++          SDVO_CMD_NAME_ENTRY
++          (SDVO_CMD_GET_SUPPORTED_CLOCK_RATE_MULTS),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_CLOCK_RATE_MULT),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_CLOCK_RATE_MULT),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_SUPPORTED_TV_FORMATS),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_GET_TV_FORMAT),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_TV_FORMAT),
++          SDVO_CMD_NAME_ENTRY
++          (SDVO_CMD_SET_TV_RESOLUTION_SUPPORT),
++          SDVO_CMD_NAME_ENTRY(SDVO_CMD_SET_CONTROL_BUS_SWITCH),};
++
++#define SDVO_NAME(dev_priv) \
++               ((dev_priv)->output_device == SDVOB ? "SDVOB" : "SDVOC")
++#define SDVO_PRIV(output)   ((struct psb_intel_sdvo_priv *) (output)->dev_priv)
++
++static void psb_intel_sdvo_write_cmd(struct psb_intel_output *psb_intel_output, u8 cmd,
++                               void *args, int args_len)
++{
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      int i;
++
++      if (1) {
++              DRM_DEBUG("%s: W: %02X ", SDVO_NAME(sdvo_priv), cmd);
++              for (i = 0; i < args_len; i++)
++                      printk(KERN_INFO"%02X ", ((u8 *) args)[i]);
++              for (; i < 8; i++)
++                      printk("   ");
++              for (i = 0;
++                   i <
++                   sizeof(sdvo_cmd_names) / sizeof(sdvo_cmd_names[0]);
++                   i++) {
++                      if (cmd == sdvo_cmd_names[i].cmd) {
++                              printk("(%s)", sdvo_cmd_names[i].name);
++                              break;
++                      }
++              }
++              if (i ==
++                  sizeof(sdvo_cmd_names) / sizeof(sdvo_cmd_names[0]))
++                      printk("(%02X)", cmd);
++              printk("\n");
++      }
++
++      for (i = 0; i < args_len; i++) {
++              psb_intel_sdvo_write_byte(psb_intel_output, SDVO_I2C_ARG_0 - i,
++                                    ((u8 *) args)[i]);
++      }
++
++      psb_intel_sdvo_write_byte(psb_intel_output, SDVO_I2C_OPCODE, cmd);
++}
++
++static const char *cmd_status_names[] = {
++      "Power on",
++      "Success",
++      "Not supported",
++      "Invalid arg",
++      "Pending",
++      "Target not specified",
++      "Scaling not supported"
++};
++
++static u8 psb_intel_sdvo_read_response(struct psb_intel_output *psb_intel_output,
++                                 void *response, int response_len)
++{
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      int i;
++      u8 status;
++      u8 retry = 50;
++
++      while (retry--) {
++              /* Read the command response */
++              for (i = 0; i < response_len; i++) {
++                      psb_intel_sdvo_read_byte(psb_intel_output,
++                                           SDVO_I2C_RETURN_0 + i,
++                                           &((u8 *) response)[i]);
++              }
++
++              /* read the return status */
++              psb_intel_sdvo_read_byte(psb_intel_output, SDVO_I2C_CMD_STATUS,
++                                   &status);
++
++              if (1) {
++                      DRM_DEBUG("%s: R: ", SDVO_NAME(sdvo_priv));
++                      for (i = 0; i < response_len; i++)
++                              printk(KERN_INFO"%02X ", ((u8 *) response)[i]);
++                      for (; i < 8; i++)
++                              printk("   ");
++                      if (status <= SDVO_CMD_STATUS_SCALING_NOT_SUPP)
++                              printk(KERN_INFO"(%s)",
++                                       cmd_status_names[status]);
++                      else
++                              printk(KERN_INFO"(??? %d)", status);
++                      printk("\n");
++              }
++
++              if (status != SDVO_CMD_STATUS_PENDING)
++                      return status;
++
++              mdelay(50);
++      }
++
++      return status;
++}
++
++int psb_intel_sdvo_get_pixel_multiplier(struct drm_display_mode *mode)
++{
++      if (mode->clock >= 100000)
++              return 1;
++      else if (mode->clock >= 50000)
++              return 2;
++      else
++              return 4;
++}
++
++/**
++ * Don't check status code from this as it switches the bus back to the
++ * SDVO chips which defeats the purpose of doing a bus switch in the first
++ * place.
++ */
++void psb_intel_sdvo_set_control_bus_switch(struct psb_intel_output *psb_intel_output,
++                                     u8 target)
++{
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_SET_CONTROL_BUS_SWITCH,
++                           &target, 1);
++}
++
++static bool psb_intel_sdvo_set_target_input(struct psb_intel_output *psb_intel_output,
++                                      bool target_0, bool target_1)
++{
++      struct psb_intel_sdvo_set_target_input_args targets = { 0 };
++      u8 status;
++
++      if (target_0 && target_1)
++              return SDVO_CMD_STATUS_NOTSUPP;
++
++      if (target_1)
++              targets.target_1 = 1;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_SET_TARGET_INPUT,
++                           &targets, sizeof(targets));
++
++      status = psb_intel_sdvo_read_response(psb_intel_output, NULL, 0);
++
++      return status == SDVO_CMD_STATUS_SUCCESS;
++}
++
++/**
++ * Return whether each input is trained.
++ *
++ * This function is making an assumption about the layout of the response,
++ * which should be checked against the docs.
++ */
++static bool psb_intel_sdvo_get_trained_inputs(struct psb_intel_output
++                                        *psb_intel_output, bool *input_1,
++                                        bool *input_2)
++{
++      struct psb_intel_sdvo_get_trained_inputs_response response;
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_GET_TRAINED_INPUTS,
++                           NULL, 0);
++      status =
++          psb_intel_sdvo_read_response(psb_intel_output, &response,
++                                   sizeof(response));
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      *input_1 = response.input0_trained;
++      *input_2 = response.input1_trained;
++      return true;
++}
++
++static bool psb_intel_sdvo_get_active_outputs(struct psb_intel_output
++                                        *psb_intel_output, u16 *outputs)
++{
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_GET_ACTIVE_OUTPUTS,
++                           NULL, 0);
++      status =
++          psb_intel_sdvo_read_response(psb_intel_output, outputs,
++                                   sizeof(*outputs));
++
++      return status == SDVO_CMD_STATUS_SUCCESS;
++}
++
++static bool psb_intel_sdvo_set_active_outputs(struct psb_intel_output
++                                        *psb_intel_output, u16 outputs)
++{
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_SET_ACTIVE_OUTPUTS,
++                           &outputs, sizeof(outputs));
++      status = psb_intel_sdvo_read_response(psb_intel_output, NULL, 0);
++      return status == SDVO_CMD_STATUS_SUCCESS;
++}
++
++static bool psb_intel_sdvo_set_encoder_power_state(struct psb_intel_output
++                                             *psb_intel_output, int mode)
++{
++      u8 status, state = SDVO_ENCODER_STATE_ON;
++
++      switch (mode) {
++      case DRM_MODE_DPMS_ON:
++              state = SDVO_ENCODER_STATE_ON;
++              break;
++      case DRM_MODE_DPMS_STANDBY:
++              state = SDVO_ENCODER_STATE_STANDBY;
++              break;
++      case DRM_MODE_DPMS_SUSPEND:
++              state = SDVO_ENCODER_STATE_SUSPEND;
++              break;
++      case DRM_MODE_DPMS_OFF:
++              state = SDVO_ENCODER_STATE_OFF;
++              break;
++      }
++
++      psb_intel_sdvo_write_cmd(psb_intel_output,
++                           SDVO_CMD_SET_ENCODER_POWER_STATE, &state,
++                           sizeof(state));
++      status = psb_intel_sdvo_read_response(psb_intel_output, NULL, 0);
++
++      return status == SDVO_CMD_STATUS_SUCCESS;
++}
++
++static bool psb_intel_sdvo_get_input_pixel_clock_range(struct psb_intel_output
++                                                 *psb_intel_output,
++                                                 int *clock_min,
++                                                 int *clock_max)
++{
++      struct psb_intel_sdvo_pixel_clock_range clocks;
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output,
++                           SDVO_CMD_GET_INPUT_PIXEL_CLOCK_RANGE, NULL,
++                           0);
++
++      status =
++          psb_intel_sdvo_read_response(psb_intel_output, &clocks,
++                                   sizeof(clocks));
++
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      /* Convert the values from units of 10 kHz to kHz. */
++      *clock_min = clocks.min * 10;
++      *clock_max = clocks.max * 10;
++
++      return true;
++}
++
++static bool psb_intel_sdvo_set_target_output(struct psb_intel_output *psb_intel_output,
++                                       u16 outputs)
++{
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_SET_TARGET_OUTPUT,
++                           &outputs, sizeof(outputs));
++
++      status = psb_intel_sdvo_read_response(psb_intel_output, NULL, 0);
++      return status == SDVO_CMD_STATUS_SUCCESS;
++}
++
++static bool psb_intel_sdvo_get_timing(struct psb_intel_output *psb_intel_output,
++                                u8 cmd, struct psb_intel_sdvo_dtd *dtd)
++{
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, cmd, NULL, 0);
++      status = psb_intel_sdvo_read_response(psb_intel_output, &dtd->part1,
++                                        sizeof(dtd->part1));
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, cmd + 1, NULL, 0);
++      status = psb_intel_sdvo_read_response(psb_intel_output, &dtd->part2,
++                                        sizeof(dtd->part2));
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      return true;
++}
++
++static bool psb_intel_sdvo_get_input_timing(struct psb_intel_output *psb_intel_output,
++                                      struct psb_intel_sdvo_dtd *dtd)
++{
++      return psb_intel_sdvo_get_timing(psb_intel_output,
++                                   SDVO_CMD_GET_INPUT_TIMINGS_PART1,
++                                   dtd);
++}
++#if 0
++static bool psb_intel_sdvo_get_output_timing(struct psb_intel_output *psb_intel_output,
++                                       struct psb_intel_sdvo_dtd *dtd)
++{
++      return psb_intel_sdvo_get_timing(psb_intel_output,
++                                   SDVO_CMD_GET_OUTPUT_TIMINGS_PART1,
++                                   dtd);
++}
++#endif
++static bool psb_intel_sdvo_set_timing(struct psb_intel_output *psb_intel_output,
++                                u8 cmd, struct psb_intel_sdvo_dtd *dtd)
++{
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, cmd, &dtd->part1,
++                           sizeof(dtd->part1));
++      status = psb_intel_sdvo_read_response(psb_intel_output, NULL, 0);
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, cmd + 1, &dtd->part2,
++                           sizeof(dtd->part2));
++      status = psb_intel_sdvo_read_response(psb_intel_output, NULL, 0);
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      return true;
++}
++
++static bool psb_intel_sdvo_set_input_timing(struct psb_intel_output *psb_intel_output,
++                                      struct psb_intel_sdvo_dtd *dtd)
++{
++      return psb_intel_sdvo_set_timing(psb_intel_output,
++                                   SDVO_CMD_SET_INPUT_TIMINGS_PART1,
++                                   dtd);
++}
++
++static bool psb_intel_sdvo_set_output_timing(struct psb_intel_output *psb_intel_output,
++                                       struct psb_intel_sdvo_dtd *dtd)
++{
++      return psb_intel_sdvo_set_timing(psb_intel_output,
++                                   SDVO_CMD_SET_OUTPUT_TIMINGS_PART1,
++                                   dtd);
++}
++
++#if 0
++static bool psb_intel_sdvo_get_preferred_input_timing(struct psb_intel_output
++                                                *psb_intel_output,
++                                                struct psb_intel_sdvo_dtd
++                                                *dtd)
++{
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output,
++                           SDVO_CMD_GET_PREFERRED_INPUT_TIMING_PART1,
++                           NULL, 0);
++
++      status = psb_intel_sdvo_read_response(psb_intel_output, &dtd->part1,
++                                        sizeof(dtd->part1));
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output,
++                           SDVO_CMD_GET_PREFERRED_INPUT_TIMING_PART2,
++                           NULL, 0);
++      status =
++          psb_intel_sdvo_read_response(psb_intel_output, &dtd->part2,
++                                   sizeof(dtd->part2));
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      return true;
++}
++#endif
++
++static int psb_intel_sdvo_get_clock_rate_mult(struct psb_intel_output
++                                        *psb_intel_output)
++{
++      u8 response, status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_GET_CLOCK_RATE_MULT,
++                           NULL, 0);
++      status = psb_intel_sdvo_read_response(psb_intel_output, &response, 1);
++
++      if (status != SDVO_CMD_STATUS_SUCCESS) {
++              DRM_DEBUG("Couldn't get SDVO clock rate multiplier\n");
++              return SDVO_CLOCK_RATE_MULT_1X;
++      } else {
++              DRM_DEBUG("Current clock rate multiplier: %d\n", response);
++      }
++
++      return response;
++}
++
++static bool psb_intel_sdvo_set_clock_rate_mult(struct psb_intel_output
++                                         *psb_intel_output, u8 val)
++{
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_SET_CLOCK_RATE_MULT,
++                           &val, 1);
++      status = psb_intel_sdvo_read_response(psb_intel_output, NULL, 0);
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      return true;
++}
++
++static bool psb_sdvo_set_current_inoutmap(struct psb_intel_output * output, u32 in0outputmask,
++                                            u32 in1outputmask)
++{
++      u8 byArgs[4];
++      u8 status;
++      int i;
++      struct psb_intel_sdvo_priv *sdvo_priv = output->dev_priv;
++
++      /* Make all fields of the  args/ret to zero */
++      memset(byArgs, 0, sizeof(byArgs));
++
++      /* Fill up the arguement values; */
++      byArgs[0] = (u8) (in0outputmask & 0xFF);
++      byArgs[1] = (u8) ((in0outputmask >> 8) & 0xFF);
++      byArgs[2] = (u8) (in1outputmask & 0xFF);
++      byArgs[3] = (u8) ((in1outputmask >> 8) & 0xFF);
++
++
++      /*save inoutmap arg here*/
++      for(i=0; i<4; i++) {
++              sdvo_priv->in_out_map[i] = byArgs[0];
++      }
++
++      
++      psb_intel_sdvo_write_cmd(output, SDVO_CMD_SET_IN_OUT_MAP, byArgs, 4);
++      status = psb_intel_sdvo_read_response(output, NULL, 0);
++
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++                      return false;
++      return true;
++}
++
++
++static void psb_intel_sdvo_set_iomap(struct psb_intel_output * output)
++{
++      u32 dwCurrentSDVOIn0 = 0;
++      u32 dwCurrentSDVOIn1 = 0;
++      u32 dwDevMask = 0;
++
++
++      struct psb_intel_sdvo_priv *sdvo_priv = output->dev_priv;
++
++      /* Please DO NOT change the following code. */
++      /* SDVOB_IN0 or SDVOB_IN1 ==> sdvo_in0 */
++      /* SDVOC_IN0 or SDVOC_IN1 ==> sdvo_in1 */
++      if (sdvo_priv->by_input_wiring & (SDVOB_IN0 | SDVOC_IN0)) {
++                      switch (sdvo_priv->active_device) {
++                              case SDVO_DEVICE_LVDS:
++                              dwDevMask = SDVO_OUTPUT_LVDS0 | SDVO_OUTPUT_LVDS1;
++                              break;
++                              case SDVO_DEVICE_TMDS:
++                              dwDevMask = SDVO_OUTPUT_TMDS0 | SDVO_OUTPUT_TMDS1;
++                              break;
++                      case SDVO_DEVICE_TV:
++                              dwDevMask =
++                                      SDVO_OUTPUT_YPRPB0 | SDVO_OUTPUT_SVID0 | SDVO_OUTPUT_CVBS0 |
++                                      SDVO_OUTPUT_YPRPB1 | SDVO_OUTPUT_SVID1 | SDVO_OUTPUT_CVBS1 |
++                                      SDVO_OUTPUT_SCART0 | SDVO_OUTPUT_SCART1;
++                              break;
++                              case SDVO_DEVICE_CRT:
++                              dwDevMask = SDVO_OUTPUT_RGB0 | SDVO_OUTPUT_RGB1;
++                              break;
++              }
++                      dwCurrentSDVOIn0 = (sdvo_priv->active_outputs & dwDevMask);
++      } else if (sdvo_priv->by_input_wiring & (SDVOB_IN1 | SDVOC_IN1)) {
++                      switch (sdvo_priv->active_device) {
++                              case SDVO_DEVICE_LVDS:
++                              dwDevMask = SDVO_OUTPUT_LVDS0 | SDVO_OUTPUT_LVDS1;
++                              break;
++                      case SDVO_DEVICE_TMDS:
++                              dwDevMask = SDVO_OUTPUT_TMDS0 | SDVO_OUTPUT_TMDS1;
++                              break;
++                              case SDVO_DEVICE_TV:
++                              dwDevMask =
++                                      SDVO_OUTPUT_YPRPB0 | SDVO_OUTPUT_SVID0 | SDVO_OUTPUT_CVBS0 |
++                                      SDVO_OUTPUT_YPRPB1 | SDVO_OUTPUT_SVID1 | SDVO_OUTPUT_CVBS1 |
++                                      SDVO_OUTPUT_SCART0 | SDVO_OUTPUT_SCART1;
++                              break;
++                              case SDVO_DEVICE_CRT:
++                              dwDevMask = SDVO_OUTPUT_RGB0 | SDVO_OUTPUT_RGB1;
++                              break;
++                      }       
++                      dwCurrentSDVOIn1 = (sdvo_priv->active_outputs & dwDevMask);
++      }
++
++      psb_sdvo_set_current_inoutmap(output, dwCurrentSDVOIn0,
++                                        dwCurrentSDVOIn1);
++}
++
++
++static bool psb_intel_sdvo_mode_fixup(struct drm_encoder *encoder,
++                                struct drm_display_mode *mode,
++                                struct drm_display_mode *adjusted_mode)
++{
++      /* Make the CRTC code factor in the SDVO pixel multiplier.  The SDVO
++       * device will be told of the multiplier during mode_set.
++       */
++      adjusted_mode->clock *= psb_intel_sdvo_get_pixel_multiplier(mode);
++      return true;
++}
++
++static void psb_intel_sdvo_mode_set(struct drm_encoder *encoder,
++                              struct drm_display_mode *mode,
++                              struct drm_display_mode *adjusted_mode)
++{
++      struct drm_device *dev = encoder->dev;
++      struct drm_crtc *crtc = encoder->crtc;
++      struct psb_intel_crtc *psb_intel_crtc = to_psb_intel_crtc(crtc);
++      struct psb_intel_output *psb_intel_output = enc_to_psb_intel_output(encoder);
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      u16 width, height;
++      u16 h_blank_len, h_sync_len, v_blank_len, v_sync_len;
++      u16 h_sync_offset, v_sync_offset;
++      u32 sdvox;
++      struct psb_intel_sdvo_dtd output_dtd;
++      int sdvo_pixel_multiply;
++
++      if (!mode)
++              return;
++
++      psb_intel_sdvo_set_target_output(psb_intel_output, 0);
++
++      width = mode->crtc_hdisplay;
++      height = mode->crtc_vdisplay;
++
++      /* do some mode translations */
++      h_blank_len = mode->crtc_hblank_end - mode->crtc_hblank_start;
++      h_sync_len = mode->crtc_hsync_end - mode->crtc_hsync_start;
++
++      v_blank_len = mode->crtc_vblank_end - mode->crtc_vblank_start;
++      v_sync_len = mode->crtc_vsync_end - mode->crtc_vsync_start;
++
++      h_sync_offset = mode->crtc_hsync_start - mode->crtc_hblank_start;
++      v_sync_offset = mode->crtc_vsync_start - mode->crtc_vblank_start;
++
++      output_dtd.part1.clock = mode->clock / 10;
++      output_dtd.part1.h_active = width & 0xff;
++      output_dtd.part1.h_blank = h_blank_len & 0xff;
++      output_dtd.part1.h_high = (((width >> 8) & 0xf) << 4) |
++          ((h_blank_len >> 8) & 0xf);
++      output_dtd.part1.v_active = height & 0xff;
++      output_dtd.part1.v_blank = v_blank_len & 0xff;
++      output_dtd.part1.v_high = (((height >> 8) & 0xf) << 4) |
++          ((v_blank_len >> 8) & 0xf);
++
++      output_dtd.part2.h_sync_off = h_sync_offset;
++      output_dtd.part2.h_sync_width = h_sync_len & 0xff;
++      output_dtd.part2.v_sync_off_width = (v_sync_offset & 0xf) << 4 |
++          (v_sync_len & 0xf);
++      output_dtd.part2.sync_off_width_high =
++          ((h_sync_offset & 0x300) >> 2) | ((h_sync_len & 0x300) >> 4) |
++          ((v_sync_offset & 0x30) >> 2) | ((v_sync_len & 0x30) >> 4);
++
++      output_dtd.part2.dtd_flags = 0x18;
++      if (mode->flags & DRM_MODE_FLAG_PHSYNC)
++              output_dtd.part2.dtd_flags |= 0x2;
++      if (mode->flags & DRM_MODE_FLAG_PVSYNC)
++              output_dtd.part2.dtd_flags |= 0x4;
++
++      output_dtd.part2.sdvo_flags = 0;
++      output_dtd.part2.v_sync_off_high = v_sync_offset & 0xc0;
++      output_dtd.part2.reserved = 0;
++
++      /* Set the output timing to the screen */
++      psb_intel_sdvo_set_target_output(psb_intel_output,
++                                   sdvo_priv->active_outputs);
++
++      /* Set the input timing to the screen. Assume always input 0. */
++      psb_intel_sdvo_set_target_input(psb_intel_output, true, false);
++
++      psb_intel_sdvo_set_output_timing(psb_intel_output, &output_dtd);
++
++      /* We would like to use i830_sdvo_create_preferred_input_timing() to
++       * provide the device with a timing it can support, if it supports that
++       * feature.  However, presumably we would need to adjust the CRTC to
++       * output the preferred timing, and we don't support that currently.
++       */
++#if 0
++      success =
++          psb_intel_sdvo_create_preferred_input_timing(psb_intel_output, clock,
++                                                   width, height);
++      if (success) {
++              struct psb_intel_sdvo_dtd *input_dtd;
++
++              psb_intel_sdvo_get_preferred_input_timing(psb_intel_output,
++                                                    &input_dtd);
++              psb_intel_sdvo_set_input_timing(psb_intel_output, &input_dtd);
++      }
++#else
++      psb_intel_sdvo_set_input_timing(psb_intel_output, &output_dtd);
++#endif
++
++      switch (psb_intel_sdvo_get_pixel_multiplier(mode)) {
++      case 1:
++              psb_intel_sdvo_set_clock_rate_mult(psb_intel_output,
++                                             SDVO_CLOCK_RATE_MULT_1X);
++              break;
++      case 2:
++              psb_intel_sdvo_set_clock_rate_mult(psb_intel_output,
++                                             SDVO_CLOCK_RATE_MULT_2X);
++              break;
++      case 4:
++              psb_intel_sdvo_set_clock_rate_mult(psb_intel_output,
++                                             SDVO_CLOCK_RATE_MULT_4X);
++              break;
++      }
++
++      /* Set the SDVO control regs. */
++      if (0 /*IS_I965GM(dev) */) {
++              sdvox = SDVO_BORDER_ENABLE;
++      } else {
++              sdvox = REG_READ(sdvo_priv->output_device);
++              switch (sdvo_priv->output_device) {
++              case SDVOB:
++                      sdvox &= SDVOB_PRESERVE_MASK;
++                      break;
++              case SDVOC:
++                      sdvox &= SDVOC_PRESERVE_MASK;
++                      break;
++              }
++              sdvox |= (9 << 19) | SDVO_BORDER_ENABLE;
++      }
++      if (psb_intel_crtc->pipe == 1)
++              sdvox |= SDVO_PIPE_B_SELECT;
++
++      sdvo_pixel_multiply = psb_intel_sdvo_get_pixel_multiplier(mode);
++
++#if 0
++      if (IS_I965G(dev)) {
++              /* done in crtc_mode_set as the dpll_md reg must be written
++               * early */
++      } else if (IS_I945G(dev) || IS_I945GM(dev)) {
++              /* done in crtc_mode_set as it lives inside the
++               * dpll register */
++      } else {
++              sdvox |=
++                  (sdvo_pixel_multiply - 1) << SDVO_PORT_MULTIPLY_SHIFT;
++      }
++#endif
++
++      psb_intel_sdvo_write_sdvox(psb_intel_output, sdvox);
++      
++       psb_intel_sdvo_set_iomap(psb_intel_output);
++}
++
++static void psb_intel_sdvo_dpms(struct drm_encoder *encoder, int mode)
++{
++      struct drm_device *dev = encoder->dev;
++      struct psb_intel_output *psb_intel_output = enc_to_psb_intel_output(encoder);
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      u32 temp;
++
++      if (mode != DRM_MODE_DPMS_ON) {
++              psb_intel_sdvo_set_active_outputs(psb_intel_output, 0);
++              if (0)
++                      psb_intel_sdvo_set_encoder_power_state(psb_intel_output,
++                                                         mode);
++
++              if (mode == DRM_MODE_DPMS_OFF) {
++                      temp = REG_READ(sdvo_priv->output_device);
++                      if ((temp & SDVO_ENABLE) != 0) {
++                              psb_intel_sdvo_write_sdvox(psb_intel_output,
++                                                     temp &
++                                                     ~SDVO_ENABLE);
++                      }
++              }
++      } else {
++              bool input1, input2;
++              int i;
++              u8 status;
++
++              temp = REG_READ(sdvo_priv->output_device);
++              if ((temp & SDVO_ENABLE) == 0)
++                      psb_intel_sdvo_write_sdvox(psb_intel_output,
++                                             temp | SDVO_ENABLE);
++              for (i = 0; i < 2; i++)
++                      psb_intel_wait_for_vblank(dev);
++
++              status =
++                  psb_intel_sdvo_get_trained_inputs(psb_intel_output, &input1,
++                                                &input2);
++
++
++              /* Warn if the device reported failure to sync.
++               * A lot of SDVO devices fail to notify of sync, but it's
++               * a given it the status is a success, we succeeded.
++               */
++              if (status == SDVO_CMD_STATUS_SUCCESS && !input1) {
++                      DRM_DEBUG
++                          ("First %s output reported failure to sync\n",
++                           SDVO_NAME(sdvo_priv));
++              }
++
++              if (0)
++                      psb_intel_sdvo_set_encoder_power_state(psb_intel_output,
++                                                         mode);
++              psb_intel_sdvo_set_active_outputs(psb_intel_output,
++                                            sdvo_priv->active_outputs);
++      }
++      return;
++}
++
++static void psb_intel_sdvo_save(struct drm_connector *connector)
++{
++      struct drm_device *dev = connector->dev;
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      /*int o;*/
++
++      sdvo_priv->save_sdvo_mult =
++          psb_intel_sdvo_get_clock_rate_mult(psb_intel_output);
++      psb_intel_sdvo_get_active_outputs(psb_intel_output,
++                                    &sdvo_priv->save_active_outputs);
++
++      if (sdvo_priv->caps.sdvo_inputs_mask & 0x1) {
++              psb_intel_sdvo_set_target_input(psb_intel_output, true, false);
++              psb_intel_sdvo_get_input_timing(psb_intel_output,
++                                          &sdvo_priv->save_input_dtd_1);
++      }
++
++      if (sdvo_priv->caps.sdvo_inputs_mask & 0x2) {
++              psb_intel_sdvo_set_target_input(psb_intel_output, false, true);
++              psb_intel_sdvo_get_input_timing(psb_intel_output,
++                                          &sdvo_priv->save_input_dtd_2);
++      }
++
++#if 0
++      for (o = SDVO_OUTPUT_FIRST; o <= SDVO_OUTPUT_LAST; o++) {
++              u16 this_output = (1 << o);
++              if (sdvo_priv->caps.output_flags & this_output) {
++                      psb_intel_sdvo_set_target_output(psb_intel_output,
++                                                   this_output);
++                      psb_intel_sdvo_get_output_timing(psb_intel_output,
++                                                   &sdvo_priv->
++                                                   save_output_dtd[o]);
++              }
++      }
++#endif
++
++      sdvo_priv->save_SDVOX = REG_READ(sdvo_priv->output_device);
++
++      /*TODO: save the in_out_map state*/
++}
++
++static void psb_intel_sdvo_restore(struct drm_connector *connector)
++{
++      struct drm_device *dev = connector->dev;
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++      /*int o;*/
++      int i;
++      bool input1, input2;
++      u8 status;
++
++      psb_intel_sdvo_set_active_outputs(psb_intel_output, 0);
++
++#if 0
++      for (o = SDVO_OUTPUT_FIRST; o <= SDVO_OUTPUT_LAST; o++) {
++              u16 this_output = (1 << o);
++              if (sdvo_priv->caps.output_flags & this_output) {
++                      psb_intel_sdvo_set_target_output(psb_intel_output,
++                                                   this_output);
++                      psb_intel_sdvo_set_output_timing(psb_intel_output,
++                                                   &sdvo_priv->
++                                                   save_output_dtd[o]);
++              }
++      }
++#endif
++
++      if (sdvo_priv->caps.sdvo_inputs_mask & 0x1) {
++              psb_intel_sdvo_set_target_input(psb_intel_output, true, false);
++              psb_intel_sdvo_set_input_timing(psb_intel_output,
++                                          &sdvo_priv->save_input_dtd_1);
++      }
++
++      if (sdvo_priv->caps.sdvo_inputs_mask & 0x2) {
++              psb_intel_sdvo_set_target_input(psb_intel_output, false, true);
++              psb_intel_sdvo_set_input_timing(psb_intel_output,
++                                          &sdvo_priv->save_input_dtd_2);
++      }
++
++      psb_intel_sdvo_set_clock_rate_mult(psb_intel_output,
++                                     sdvo_priv->save_sdvo_mult);
++
++      REG_WRITE(sdvo_priv->output_device, sdvo_priv->save_SDVOX);
++
++      if (sdvo_priv->save_SDVOX & SDVO_ENABLE) {
++              for (i = 0; i < 2; i++)
++                      psb_intel_wait_for_vblank(dev);
++              status =
++                  psb_intel_sdvo_get_trained_inputs(psb_intel_output, &input1,
++                                                &input2);
++              if (status == SDVO_CMD_STATUS_SUCCESS && !input1)
++                      DRM_DEBUG
++                          ("First %s output reported failure to sync\n",
++                           SDVO_NAME(sdvo_priv));
++      }
++
++      psb_intel_sdvo_set_active_outputs(psb_intel_output,
++                                    sdvo_priv->save_active_outputs);
++
++      /*TODO: restore in_out_map*/
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_SET_IN_OUT_MAP, sdvo_priv->in_out_map, 4);
++      psb_intel_sdvo_read_response(psb_intel_output, NULL, 0);
++}
++
++static int psb_intel_sdvo_mode_valid(struct drm_connector *connector,
++                               struct drm_display_mode *mode)
++{
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++      struct psb_intel_sdvo_priv *sdvo_priv = psb_intel_output->dev_priv;
++
++      if (mode->flags & DRM_MODE_FLAG_DBLSCAN)
++              return MODE_NO_DBLESCAN;
++
++      if (sdvo_priv->pixel_clock_min > mode->clock)
++              return MODE_CLOCK_LOW;
++
++      if (sdvo_priv->pixel_clock_max < mode->clock)
++              return MODE_CLOCK_HIGH;
++
++      return MODE_OK;
++}
++
++static bool psb_intel_sdvo_get_capabilities(struct psb_intel_output *psb_intel_output,
++                                      struct psb_intel_sdvo_caps *caps)
++{
++      u8 status;
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_GET_DEVICE_CAPS, NULL,
++                           0);
++      status =
++          psb_intel_sdvo_read_response(psb_intel_output, caps, sizeof(*caps));
++      if (status != SDVO_CMD_STATUS_SUCCESS)
++              return false;
++
++      return true;
++}
++
++struct drm_connector *psb_intel_sdvo_find(struct drm_device *dev, int sdvoB)
++{
++      struct drm_connector *connector = NULL;
++      struct psb_intel_output *iout = NULL;
++      struct psb_intel_sdvo_priv *sdvo;
++
++      /* find the sdvo connector */
++      list_for_each_entry(connector, &dev->mode_config.connector_list,
++                          head) {
++              iout = to_psb_intel_output(connector);
++
++              if (iout->type != INTEL_OUTPUT_SDVO)
++                      continue;
++
++              sdvo = iout->dev_priv;
++
++              if (sdvo->output_device == SDVOB && sdvoB)
++                      return connector;
++
++              if (sdvo->output_device == SDVOC && !sdvoB)
++                      return connector;
++
++      }
++
++      return NULL;
++}
++
++int psb_intel_sdvo_supports_hotplug(struct drm_connector *connector)
++{
++      u8 response[2];
++      u8 status;
++      struct psb_intel_output *psb_intel_output;
++      DRM_DEBUG("\n");
++
++      if (!connector)
++              return 0;
++
++      psb_intel_output = to_psb_intel_output(connector);
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_GET_HOT_PLUG_SUPPORT,
++                           NULL, 0);
++      status = psb_intel_sdvo_read_response(psb_intel_output, &response, 2);
++
++      if (response[0] != 0)
++              return 1;
++
++      return 0;
++}
++
++void psb_intel_sdvo_set_hotplug(struct drm_connector *connector, int on)
++{
++      u8 response[2];
++      u8 status;
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_GET_ACTIVE_HOT_PLUG,
++                           NULL, 0);
++      psb_intel_sdvo_read_response(psb_intel_output, &response, 2);
++
++      if (on) {
++              psb_intel_sdvo_write_cmd(psb_intel_output,
++                                   SDVO_CMD_GET_HOT_PLUG_SUPPORT, NULL,
++                                   0);
++              status =
++                  psb_intel_sdvo_read_response(psb_intel_output, &response, 2);
++
++              psb_intel_sdvo_write_cmd(psb_intel_output,
++                                   SDVO_CMD_SET_ACTIVE_HOT_PLUG,
++                                   &response, 2);
++      } else {
++              response[0] = 0;
++              response[1] = 0;
++              psb_intel_sdvo_write_cmd(psb_intel_output,
++                                   SDVO_CMD_SET_ACTIVE_HOT_PLUG,
++                                   &response, 2);
++      }
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_GET_ACTIVE_HOT_PLUG,
++                           NULL, 0);
++      psb_intel_sdvo_read_response(psb_intel_output, &response, 2);
++}
++
++static enum drm_connector_status psb_intel_sdvo_detect(struct drm_connector
++                                                 *connector)
++{
++      u8 response[2];
++      u8 status;
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++
++      psb_intel_sdvo_write_cmd(psb_intel_output, SDVO_CMD_GET_ATTACHED_DISPLAYS,
++                           NULL, 0);
++      status = psb_intel_sdvo_read_response(psb_intel_output, &response, 2);
++
++      DRM_DEBUG("SDVO response %d %d\n", response[0], response[1]);
++      if ((response[0] != 0) || (response[1] != 0))
++              return connector_status_connected;
++      else
++              return connector_status_disconnected;
++}
++
++static int psb_intel_sdvo_get_modes(struct drm_connector *connector)
++{
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++
++      /* set the bus switch and get the modes */
++      psb_intel_sdvo_set_control_bus_switch(psb_intel_output,
++                                        SDVO_CONTROL_BUS_DDC2);
++      psb_intel_ddc_get_modes(psb_intel_output);
++
++      if (list_empty(&connector->probed_modes))
++              return 0;
++      return 1;
++#if 0
++      /* Mac mini hack.  On this device, I get DDC through the analog, which
++       * load-detects as disconnected.  I fail to DDC through the SDVO DDC,
++       * but it does load-detect as connected.  So, just steal the DDC bits
++       * from analog when we fail at finding it the right way.
++       */
++      /* TODO */
++      return NULL;
++
++      return NULL;
++#endif
++}
++
++static void psb_intel_sdvo_destroy(struct drm_connector *connector)
++{
++      struct psb_intel_output *psb_intel_output = to_psb_intel_output(connector);
++
++      if (psb_intel_output->i2c_bus)
++              psb_intel_i2c_destroy(psb_intel_output->i2c_bus);
++      drm_sysfs_connector_remove(connector);
++      drm_connector_cleanup(connector);
++      kfree(psb_intel_output);
++}
++
++static const struct drm_encoder_helper_funcs psb_intel_sdvo_helper_funcs = {
++      .dpms = psb_intel_sdvo_dpms,
++      .mode_fixup = psb_intel_sdvo_mode_fixup,
++      .prepare = psb_intel_encoder_prepare,
++      .mode_set = psb_intel_sdvo_mode_set,
++      .commit = psb_intel_encoder_commit,
++};
++
++static const struct drm_connector_funcs psb_intel_sdvo_connector_funcs = {
++      .dpms = drm_helper_connector_dpms,
++      .save = psb_intel_sdvo_save,
++      .restore = psb_intel_sdvo_restore,
++      .detect = psb_intel_sdvo_detect,
++      .fill_modes = drm_helper_probe_single_connector_modes,
++      .destroy = psb_intel_sdvo_destroy,
++};
++
++static const struct drm_connector_helper_funcs
++    psb_intel_sdvo_connector_helper_funcs = {
++      .get_modes = psb_intel_sdvo_get_modes,
++      .mode_valid = psb_intel_sdvo_mode_valid,
++      .best_encoder = psb_intel_best_encoder,
++};
++
++void psb_intel_sdvo_enc_destroy(struct drm_encoder *encoder)
++{
++      drm_encoder_cleanup(encoder);
++}
++
++static const struct drm_encoder_funcs psb_intel_sdvo_enc_funcs = {
++      .destroy = psb_intel_sdvo_enc_destroy,
++};
++
++
++void psb_intel_sdvo_init(struct drm_device *dev, int output_device)
++{
++      struct drm_connector *connector;
++      struct psb_intel_output *psb_intel_output;
++      struct psb_intel_sdvo_priv *sdvo_priv;
++      struct psb_intel_i2c_chan *i2cbus = NULL;
++      int connector_type;
++      u8 ch[0x40];
++      int i;
++      int encoder_type, output_id;
++
++      psb_intel_output =
++          kcalloc(sizeof(struct psb_intel_output) +
++                  sizeof(struct psb_intel_sdvo_priv), 1, GFP_KERNEL);
++      if (!psb_intel_output)
++              return;
++
++      connector = &psb_intel_output->base;
++
++      drm_connector_init(dev, connector, &psb_intel_sdvo_connector_funcs,
++                         DRM_MODE_CONNECTOR_Unknown);
++      drm_connector_helper_add(connector,
++                               &psb_intel_sdvo_connector_helper_funcs);
++      sdvo_priv = (struct psb_intel_sdvo_priv *) (psb_intel_output + 1);
++      psb_intel_output->type = INTEL_OUTPUT_SDVO;
++
++      connector->interlace_allowed = 0;
++      connector->doublescan_allowed = 0;
++
++      /* setup the DDC bus. */
++      if (output_device == SDVOB)
++              i2cbus =
++                  psb_intel_i2c_create(dev, GPIOE, "SDVOCTRL_E for SDVOB");
++      else
++              i2cbus =
++                  psb_intel_i2c_create(dev, GPIOE, "SDVOCTRL_E for SDVOC");
++
++      if (!i2cbus)
++              goto err_connector;
++
++      sdvo_priv->i2c_bus = i2cbus;
++
++      if (output_device == SDVOB) {
++              output_id = 1;
++              sdvo_priv->by_input_wiring = SDVOB_IN0;
++              sdvo_priv->i2c_bus->slave_addr = 0x38;
++      } else {
++              output_id = 2;
++              sdvo_priv->i2c_bus->slave_addr = 0x39;
++      }
++
++      sdvo_priv->output_device = output_device;
++      psb_intel_output->i2c_bus = i2cbus;
++      psb_intel_output->dev_priv = sdvo_priv;
++
++
++      /* Read the regs to test if we can talk to the device */
++      for (i = 0; i < 0x40; i++) {
++              if (!psb_intel_sdvo_read_byte(psb_intel_output, i, &ch[i])) {
++                      DRM_DEBUG("No SDVO device found on SDVO%c\n",
++                                output_device == SDVOB ? 'B' : 'C');
++                      goto err_i2c;
++              }
++      }
++
++      psb_intel_sdvo_get_capabilities(psb_intel_output, &sdvo_priv->caps);
++
++      memset(&sdvo_priv->active_outputs, 0,
++             sizeof(sdvo_priv->active_outputs));
++
++      /* TODO, CVBS, SVID, YPRPB & SCART outputs. */
++      if (sdvo_priv->caps.output_flags & SDVO_OUTPUT_RGB0) {
++              sdvo_priv->active_outputs = SDVO_OUTPUT_RGB0;
++              sdvo_priv->active_device = SDVO_DEVICE_CRT;
++              connector->display_info.subpixel_order =
++                  SubPixelHorizontalRGB;
++              encoder_type = DRM_MODE_ENCODER_DAC;
++              connector_type = DRM_MODE_CONNECTOR_VGA;
++      } else if (sdvo_priv->caps.output_flags & SDVO_OUTPUT_RGB1) {
++              sdvo_priv->active_outputs = SDVO_OUTPUT_RGB1;
++              sdvo_priv->active_outputs = SDVO_DEVICE_CRT;
++              connector->display_info.subpixel_order =
++                  SubPixelHorizontalRGB;
++              encoder_type = DRM_MODE_ENCODER_DAC;
++              connector_type = DRM_MODE_CONNECTOR_VGA;
++      } else if (sdvo_priv->caps.output_flags & SDVO_OUTPUT_TMDS0) {
++              sdvo_priv->active_outputs = SDVO_OUTPUT_TMDS0;
++              sdvo_priv->active_device = SDVO_DEVICE_TMDS;
++              connector->display_info.subpixel_order =
++                  SubPixelHorizontalRGB;
++              encoder_type = DRM_MODE_ENCODER_TMDS;
++              connector_type = DRM_MODE_CONNECTOR_DVID;
++      } else if (sdvo_priv->caps.output_flags & SDVO_OUTPUT_TMDS1) {
++              sdvo_priv->active_outputs = SDVO_OUTPUT_TMDS1;
++              sdvo_priv->active_device = SDVO_DEVICE_TMDS;
++              connector->display_info.subpixel_order =
++                  SubPixelHorizontalRGB;
++              encoder_type = DRM_MODE_ENCODER_TMDS;
++              connector_type = DRM_MODE_CONNECTOR_DVID;
++      } else {
++              unsigned char bytes[2];
++
++              memcpy(bytes, &sdvo_priv->caps.output_flags, 2);
++              DRM_DEBUG
++                  ("%s: No active RGB or TMDS outputs (0x%02x%02x)\n",
++                   SDVO_NAME(sdvo_priv), bytes[0], bytes[1]);
++              goto err_i2c;
++      }
++
++      drm_encoder_init(dev, &psb_intel_output->enc, &psb_intel_sdvo_enc_funcs,
++                       encoder_type);
++      drm_encoder_helper_add(&psb_intel_output->enc,
++                             &psb_intel_sdvo_helper_funcs);
++      connector->connector_type = connector_type;
++
++      drm_mode_connector_attach_encoder(&psb_intel_output->base,
++                                        &psb_intel_output->enc);
++      drm_sysfs_connector_add(connector);
++
++      /* Set the input timing to the screen. Assume always input 0. */
++      psb_intel_sdvo_set_target_input(psb_intel_output, true, false);
++
++      psb_intel_sdvo_get_input_pixel_clock_range(psb_intel_output,
++                                             &sdvo_priv->pixel_clock_min,
++                                             &sdvo_priv->
++                                             pixel_clock_max);
++
++
++      DRM_DEBUG("%s device VID/DID: %02X:%02X.%02X, "
++                "clock range %dMHz - %dMHz, "
++                "input 1: %c, input 2: %c, "
++                "output 1: %c, output 2: %c\n",
++                SDVO_NAME(sdvo_priv),
++                sdvo_priv->caps.vendor_id, sdvo_priv->caps.device_id,
++                sdvo_priv->caps.device_rev_id,
++                sdvo_priv->pixel_clock_min / 1000,
++                sdvo_priv->pixel_clock_max / 1000,
++                (sdvo_priv->caps.sdvo_inputs_mask & 0x1) ? 'Y' : 'N',
++                (sdvo_priv->caps.sdvo_inputs_mask & 0x2) ? 'Y' : 'N',
++                /* check currently supported outputs */
++                sdvo_priv->caps.output_flags &
++                (SDVO_OUTPUT_TMDS0 | SDVO_OUTPUT_RGB0) ? 'Y' : 'N',
++                sdvo_priv->caps.output_flags &
++                (SDVO_OUTPUT_TMDS1 | SDVO_OUTPUT_RGB1) ? 'Y' : 'N');
++
++      psb_intel_output->ddc_bus = i2cbus;
++
++      return;
++
++err_i2c:
++      psb_intel_i2c_destroy(psb_intel_output->i2c_bus);
++err_connector:
++      drm_connector_cleanup(connector);
++      kfree(psb_intel_output);
++
++      return;
++}
+diff --git a/drivers/gpu/drm/psb/psb_intel_sdvo_regs.h b/drivers/gpu/drm/psb/psb_intel_sdvo_regs.h
+new file mode 100644
+index 0000000..bf3d72e
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_intel_sdvo_regs.h
+@@ -0,0 +1,345 @@
++/*
++ * Copyright (c) 2008, Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
++ * DEALINGS IN THE SOFTWARE.
++ *
++ * Authors:
++ *    Eric Anholt <eric@anholt.net>
++ */
++
++/**
++ * @file SDVO command definitions and structures.
++ */
++
++#define SDVO_OUTPUT_FIRST   (0)
++#define SDVO_OUTPUT_TMDS0   (1 << 0)
++#define SDVO_OUTPUT_RGB0    (1 << 1)
++#define SDVO_OUTPUT_CVBS0   (1 << 2)
++#define SDVO_OUTPUT_SVID0   (1 << 3)
++#define SDVO_OUTPUT_YPRPB0  (1 << 4)
++#define SDVO_OUTPUT_SCART0  (1 << 5)
++#define SDVO_OUTPUT_LVDS0   (1 << 6)
++#define SDVO_OUTPUT_TMDS1   (1 << 8)
++#define SDVO_OUTPUT_RGB1    (1 << 9)
++#define SDVO_OUTPUT_CVBS1   (1 << 10)
++#define SDVO_OUTPUT_SVID1   (1 << 11)
++#define SDVO_OUTPUT_YPRPB1  (1 << 12)
++#define SDVO_OUTPUT_SCART1  (1 << 13)
++#define SDVO_OUTPUT_LVDS1   (1 << 14)
++#define SDVO_OUTPUT_LAST    (14)
++
++struct psb_intel_sdvo_caps {
++      u8 vendor_id;
++      u8 device_id;
++      u8 device_rev_id;
++      u8 sdvo_version_major;
++      u8 sdvo_version_minor;
++      unsigned int sdvo_inputs_mask:2;
++      unsigned int smooth_scaling:1;
++      unsigned int sharp_scaling:1;
++      unsigned int up_scaling:1;
++      unsigned int down_scaling:1;
++      unsigned int stall_support:1;
++      unsigned int pad:1;
++      u16 output_flags;
++} __attribute__ ((packed));
++
++/** This matches the EDID DTD structure, more or less */
++struct psb_intel_sdvo_dtd {
++      struct {
++              u16 clock;      /**< pixel clock, in 10kHz units */
++              u8 h_active;    /**< lower 8 bits (pixels) */
++              u8 h_blank;     /**< lower 8 bits (pixels) */
++              u8 h_high;      /**< upper 4 bits each h_active, h_blank */
++              u8 v_active;    /**< lower 8 bits (lines) */
++              u8 v_blank;     /**< lower 8 bits (lines) */
++              u8 v_high;      /**< upper 4 bits each v_active, v_blank */
++      } part1;
++
++      struct {
++              u8 h_sync_off;
++                      /**< lower 8 bits, from hblank start */
++              u8 h_sync_width;/**< lower 8 bits (pixels) */
++      /** lower 4 bits each vsync offset, vsync width */
++              u8 v_sync_off_width;
++      /**
++       * 2 high bits of hsync offset, 2 high bits of hsync width,
++       * bits 4-5 of vsync offset, and 2 high bits of vsync width.
++       */
++              u8 sync_off_width_high;
++              u8 dtd_flags;
++              u8 sdvo_flags;
++      /** bits 6-7 of vsync offset at bits 6-7 */
++              u8 v_sync_off_high;
++              u8 reserved;
++      } part2;
++} __attribute__ ((packed));
++
++struct psb_intel_sdvo_pixel_clock_range {
++      u16 min;                /**< pixel clock, in 10kHz units */
++      u16 max;                /**< pixel clock, in 10kHz units */
++} __attribute__ ((packed));
++
++struct psb_intel_sdvo_preferred_input_timing_args {
++      u16 clock;
++      u16 width;
++      u16 height;
++} __attribute__ ((packed));
++
++/* I2C registers for SDVO */
++#define SDVO_I2C_ARG_0                                0x07
++#define SDVO_I2C_ARG_1                                0x06
++#define SDVO_I2C_ARG_2                                0x05
++#define SDVO_I2C_ARG_3                                0x04
++#define SDVO_I2C_ARG_4                                0x03
++#define SDVO_I2C_ARG_5                                0x02
++#define SDVO_I2C_ARG_6                                0x01
++#define SDVO_I2C_ARG_7                                0x00
++#define SDVO_I2C_OPCODE                               0x08
++#define SDVO_I2C_CMD_STATUS                   0x09
++#define SDVO_I2C_RETURN_0                     0x0a
++#define SDVO_I2C_RETURN_1                     0x0b
++#define SDVO_I2C_RETURN_2                     0x0c
++#define SDVO_I2C_RETURN_3                     0x0d
++#define SDVO_I2C_RETURN_4                     0x0e
++#define SDVO_I2C_RETURN_5                     0x0f
++#define SDVO_I2C_RETURN_6                     0x10
++#define SDVO_I2C_RETURN_7                     0x11
++#define SDVO_I2C_VENDOR_BEGIN                 0x20
++
++/* Status results */
++#define SDVO_CMD_STATUS_POWER_ON              0x0
++#define SDVO_CMD_STATUS_SUCCESS                       0x1
++#define SDVO_CMD_STATUS_NOTSUPP                       0x2
++#define SDVO_CMD_STATUS_INVALID_ARG           0x3
++#define SDVO_CMD_STATUS_PENDING                       0x4
++#define SDVO_CMD_STATUS_TARGET_NOT_SPECIFIED  0x5
++#define SDVO_CMD_STATUS_SCALING_NOT_SUPP      0x6
++
++/* SDVO commands, argument/result registers */
++
++#define SDVO_CMD_RESET                                        0x01
++
++/** Returns a struct psb_intel_sdvo_caps */
++#define SDVO_CMD_GET_DEVICE_CAPS                      0x02
++
++#define SDVO_CMD_GET_FIRMWARE_REV                     0x86
++# define SDVO_DEVICE_FIRMWARE_MINOR                   SDVO_I2C_RETURN_0
++# define SDVO_DEVICE_FIRMWARE_MAJOR                   SDVO_I2C_RETURN_1
++# define SDVO_DEVICE_FIRMWARE_PATCH                   SDVO_I2C_RETURN_2
++
++/**
++ * Reports which inputs are trained (managed to sync).
++ *
++ * Devices must have trained within 2 vsyncs of a mode change.
++ */
++#define SDVO_CMD_GET_TRAINED_INPUTS                   0x03
++struct psb_intel_sdvo_get_trained_inputs_response {
++      unsigned int input0_trained:1;
++      unsigned int input1_trained:1;
++      unsigned int pad:6;
++} __attribute__ ((packed));
++
++/** Returns a struct psb_intel_sdvo_output_flags of active outputs. */
++#define SDVO_CMD_GET_ACTIVE_OUTPUTS                   0x04
++
++/**
++ * Sets the current set of active outputs.
++ *
++ * Takes a struct psb_intel_sdvo_output_flags.  Must be preceded by a SET_IN_OUT_MAP
++ * on multi-output devices.
++ */
++#define SDVO_CMD_SET_ACTIVE_OUTPUTS                   0x05
++
++/**
++ * Returns the current mapping of SDVO inputs to outputs on the device.
++ *
++ * Returns two struct psb_intel_sdvo_output_flags structures.
++ */
++#define SDVO_CMD_GET_IN_OUT_MAP                               0x06
++
++/**
++ * Sets the current mapping of SDVO inputs to outputs on the device.
++ *
++ * Takes two struct i380_sdvo_output_flags structures.
++ */
++#define SDVO_CMD_SET_IN_OUT_MAP                               0x07
++
++/**
++ * Returns a struct psb_intel_sdvo_output_flags of attached displays.
++ */
++#define SDVO_CMD_GET_ATTACHED_DISPLAYS                        0x0b
++
++/**
++ * Returns a struct psb_intel_sdvo_ouptut_flags of displays supporting hot plugging.
++ */
++#define SDVO_CMD_GET_HOT_PLUG_SUPPORT                 0x0c
++
++/**
++ * Takes a struct psb_intel_sdvo_output_flags.
++ */
++#define SDVO_CMD_SET_ACTIVE_HOT_PLUG                  0x0d
++
++/**
++ * Returns a struct psb_intel_sdvo_output_flags of displays with hot plug
++ * interrupts enabled.
++ */
++#define SDVO_CMD_GET_ACTIVE_HOT_PLUG                  0x0e
++
++#define SDVO_CMD_GET_INTERRUPT_EVENT_SOURCE           0x0f
++struct psb_intel_sdvo_get_interrupt_event_source_response {
++      u16 interrupt_status;
++      unsigned int ambient_light_interrupt:1;
++      unsigned int pad:7;
++} __attribute__ ((packed));
++
++/**
++ * Selects which input is affected by future input commands.
++ *
++ * Commands affected include SET_INPUT_TIMINGS_PART[12],
++ * GET_INPUT_TIMINGS_PART[12], GET_PREFERRED_INPUT_TIMINGS_PART[12],
++ * GET_INPUT_PIXEL_CLOCK_RANGE, and CREATE_PREFERRED_INPUT_TIMINGS.
++ */
++#define SDVO_CMD_SET_TARGET_INPUT                     0x10
++struct psb_intel_sdvo_set_target_input_args {
++      unsigned int target_1:1;
++      unsigned int pad:7;
++} __attribute__ ((packed));
++
++/**
++ * Takes a struct psb_intel_sdvo_output_flags of which outputs are targetted by
++ * future output commands.
++ *
++ * Affected commands inclue SET_OUTPUT_TIMINGS_PART[12],
++ * GET_OUTPUT_TIMINGS_PART[12], and GET_OUTPUT_PIXEL_CLOCK_RANGE.
++ */
++#define SDVO_CMD_SET_TARGET_OUTPUT                    0x11
++
++#define SDVO_CMD_GET_INPUT_TIMINGS_PART1              0x12
++#define SDVO_CMD_GET_INPUT_TIMINGS_PART2              0x13
++#define SDVO_CMD_SET_INPUT_TIMINGS_PART1              0x14
++#define SDVO_CMD_SET_INPUT_TIMINGS_PART2              0x15
++#define SDVO_CMD_SET_OUTPUT_TIMINGS_PART1             0x16
++#define SDVO_CMD_SET_OUTPUT_TIMINGS_PART2             0x17
++#define SDVO_CMD_GET_OUTPUT_TIMINGS_PART1             0x18
++#define SDVO_CMD_GET_OUTPUT_TIMINGS_PART2             0x19
++/* Part 1 */
++# define SDVO_DTD_CLOCK_LOW                           SDVO_I2C_ARG_0
++# define SDVO_DTD_CLOCK_HIGH                          SDVO_I2C_ARG_1
++# define SDVO_DTD_H_ACTIVE                            SDVO_I2C_ARG_2
++# define SDVO_DTD_H_BLANK                             SDVO_I2C_ARG_3
++# define SDVO_DTD_H_HIGH                              SDVO_I2C_ARG_4
++# define SDVO_DTD_V_ACTIVE                            SDVO_I2C_ARG_5
++# define SDVO_DTD_V_BLANK                             SDVO_I2C_ARG_6
++# define SDVO_DTD_V_HIGH                              SDVO_I2C_ARG_7
++/* Part 2 */
++# define SDVO_DTD_HSYNC_OFF                           SDVO_I2C_ARG_0
++# define SDVO_DTD_HSYNC_WIDTH                         SDVO_I2C_ARG_1
++# define SDVO_DTD_VSYNC_OFF_WIDTH                     SDVO_I2C_ARG_2
++# define SDVO_DTD_SYNC_OFF_WIDTH_HIGH                 SDVO_I2C_ARG_3
++# define SDVO_DTD_DTD_FLAGS                           SDVO_I2C_ARG_4
++# define SDVO_DTD_DTD_FLAG_INTERLACED                         (1 << 7)
++# define SDVO_DTD_DTD_FLAG_STEREO_MASK                                (3 << 5)
++# define SDVO_DTD_DTD_FLAG_INPUT_MASK                         (3 << 3)
++# define SDVO_DTD_DTD_FLAG_SYNC_MASK                          (3 << 1)
++# define SDVO_DTD_SDVO_FLAS                           SDVO_I2C_ARG_5
++# define SDVO_DTD_SDVO_FLAG_STALL                             (1 << 7)
++# define SDVO_DTD_SDVO_FLAG_CENTERED                          (0 << 6)
++# define SDVO_DTD_SDVO_FLAG_UPPER_LEFT                                (1 << 6)
++# define SDVO_DTD_SDVO_FLAG_SCALING_MASK                      (3 << 4)
++# define SDVO_DTD_SDVO_FLAG_SCALING_NONE                      (0 << 4)
++# define SDVO_DTD_SDVO_FLAG_SCALING_SHARP                     (1 << 4)
++# define SDVO_DTD_SDVO_FLAG_SCALING_SMOOTH                    (2 << 4)
++# define SDVO_DTD_VSYNC_OFF_HIGH                      SDVO_I2C_ARG_6
++
++/**
++ * Generates a DTD based on the given width, height, and flags.
++ *
++ * This will be supported by any device supporting scaling or interlaced
++ * modes.
++ */
++#define SDVO_CMD_CREATE_PREFERRED_INPUT_TIMING                0x1a
++# define SDVO_PREFERRED_INPUT_TIMING_CLOCK_LOW                SDVO_I2C_ARG_0
++# define SDVO_PREFERRED_INPUT_TIMING_CLOCK_HIGH               SDVO_I2C_ARG_1
++# define SDVO_PREFERRED_INPUT_TIMING_WIDTH_LOW                SDVO_I2C_ARG_2
++# define SDVO_PREFERRED_INPUT_TIMING_WIDTH_HIGH               SDVO_I2C_ARG_3
++# define SDVO_PREFERRED_INPUT_TIMING_HEIGHT_LOW               SDVO_I2C_ARG_4
++# define SDVO_PREFERRED_INPUT_TIMING_HEIGHT_HIGH      SDVO_I2C_ARG_5
++# define SDVO_PREFERRED_INPUT_TIMING_FLAGS            SDVO_I2C_ARG_6
++# define SDVO_PREFERRED_INPUT_TIMING_FLAGS_INTERLACED         (1 << 0)
++# define SDVO_PREFERRED_INPUT_TIMING_FLAGS_SCALED             (1 << 1)
++
++#define SDVO_CMD_GET_PREFERRED_INPUT_TIMING_PART1     0x1b
++#define SDVO_CMD_GET_PREFERRED_INPUT_TIMING_PART2     0x1c
++
++/** Returns a struct psb_intel_sdvo_pixel_clock_range */
++#define SDVO_CMD_GET_INPUT_PIXEL_CLOCK_RANGE          0x1d
++/** Returns a struct psb_intel_sdvo_pixel_clock_range */
++#define SDVO_CMD_GET_OUTPUT_PIXEL_CLOCK_RANGE         0x1e
++
++/** Returns a byte bitfield containing SDVO_CLOCK_RATE_MULT_* flags */
++#define SDVO_CMD_GET_SUPPORTED_CLOCK_RATE_MULTS               0x1f
++
++/** Returns a byte containing a SDVO_CLOCK_RATE_MULT_* flag */
++#define SDVO_CMD_GET_CLOCK_RATE_MULT                  0x20
++/** Takes a byte containing a SDVO_CLOCK_RATE_MULT_* flag */
++#define SDVO_CMD_SET_CLOCK_RATE_MULT                  0x21
++# define SDVO_CLOCK_RATE_MULT_1X                              (1 << 0)
++# define SDVO_CLOCK_RATE_MULT_2X                              (1 << 1)
++# define SDVO_CLOCK_RATE_MULT_4X                              (1 << 3)
++
++#define SDVO_CMD_GET_SUPPORTED_TV_FORMATS             0x27
++
++#define SDVO_CMD_GET_TV_FORMAT                                0x28
++
++#define SDVO_CMD_SET_TV_FORMAT                                0x29
++
++#define SDVO_CMD_GET_SUPPORTED_POWER_STATES           0x2a
++#define SDVO_CMD_GET_ENCODER_POWER_STATE              0x2b
++#define SDVO_CMD_SET_ENCODER_POWER_STATE              0x2c
++# define SDVO_ENCODER_STATE_ON                                        (1 << 0)
++# define SDVO_ENCODER_STATE_STANDBY                           (1 << 1)
++# define SDVO_ENCODER_STATE_SUSPEND                           (1 << 2)
++# define SDVO_ENCODER_STATE_OFF                                       (1 << 3)
++
++#define SDVO_CMD_SET_TV_RESOLUTION_SUPPORT            0x93
++
++#define SDVO_CMD_SET_CONTROL_BUS_SWITCH                       0x7a
++# define SDVO_CONTROL_BUS_PROM                                0x0
++# define SDVO_CONTROL_BUS_DDC1                                0x1
++# define SDVO_CONTROL_BUS_DDC2                                0x2
++# define SDVO_CONTROL_BUS_DDC3                                0x3
++
++/* SDVO Bus & SDVO Inputs wiring details*/
++/* Bit 0: Is SDVOB connected to In0 (1 = yes, 0 = no*/
++/* Bit 1: Is SDVOB connected to In1 (1 = yes, 0 = no*/
++/* Bit 2: Is SDVOC connected to In0 (1 = yes, 0 = no*/
++/* Bit 3: Is SDVOC connected to In1 (1 = yes, 0 = no*/
++#define SDVOB_IN0 0x01
++#define SDVOB_IN1 0x02
++#define SDVOC_IN0 0x04
++#define SDVOC_IN1 0x08
++
++#define SDVO_DEVICE_NONE 0x00
++#define        SDVO_DEVICE_CRT 0x01
++#define        SDVO_DEVICE_TV 0x02
++#define        SDVO_DEVICE_LVDS 0x04
++#define        SDVO_DEVICE_TMDS 0x08
++
+diff --git a/drivers/gpu/drm/psb/psb_irq.c b/drivers/gpu/drm/psb/psb_irq.c
+new file mode 100644
+index 0000000..983e2ad
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_irq.c
+@@ -0,0 +1,621 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ */
++
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "psb_reg.h"
++#include "psb_msvdx.h"
++#include "lnc_topaz.h"
++#include "psb_intel_reg.h"
++#include "psb_powermgmt.h"
++
++/*
++ * Video display controller interrupt.
++ */
++
++static void psb_vdc_interrupt(struct drm_device *dev, uint32_t vdc_stat)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      if (!drm_psb_disable_vsync && (vdc_stat & _PSB_VSYNC_PIPEA_FLAG)) {
++#ifdef PSB_FIXME
++              atomic_inc(&dev->vbl_received);
++#endif
++              PSB_WVDC32(PIPE_VBLANK_INTERRUPT_ENABLE |
++                         PIPE_VBLANK_CLEAR, PIPEASTAT);
++              drm_handle_vblank(dev, 0);
++      }
++
++      if (!drm_psb_disable_vsync && (vdc_stat & _PSB_VSYNC_PIPEB_FLAG)) {
++#ifdef PSB_FIXME
++              atomic_inc(&dev->vbl_received2);
++#endif
++              PSB_WVDC32(PIPE_VBLANK_INTERRUPT_ENABLE |
++                         PIPE_VBLANK_CLEAR, PIPEBSTAT);
++              drm_handle_vblank(dev, 1);
++      }
++}
++
++/*
++ * SGX interrupt source 1.
++ */
++
++static void psb_sgx_interrupt(struct drm_device *dev, uint32_t sgx_stat,
++                            uint32_t sgx_stat2)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      if (sgx_stat & _PSB_CE_TWOD_COMPLETE) {
++              DRM_WAKEUP(&dev_priv->event_2d_queue);
++              psb_fence_handler(dev, PSB_ENGINE_2D);
++      }
++
++      if (unlikely(sgx_stat2 & _PSB_CE2_BIF_REQUESTER_FAULT))
++              psb_print_pagefault(dev_priv);
++
++      psb_scheduler_handler(dev_priv, sgx_stat);
++}
++
++
++irqreturn_t psb_irq_handler(DRM_IRQ_ARGS)
++{
++      struct drm_device *dev = (struct drm_device *) arg;
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      uint32_t vdc_stat,msvdx_int = 0, topaz_int = 0;
++      uint32_t sgx_stat = 0;
++      uint32_t sgx_stat2 = 0;
++      uint32_t sgx_int = 0;
++      int handled = 0;
++      
++      spin_lock(&dev_priv->irqmask_lock);
++
++      vdc_stat = PSB_RVDC32(PSB_INT_IDENTITY_R);
++
++      if (vdc_stat & _PSB_IRQ_SGX_FLAG) {
++              PSB_DEBUG_IRQ("Got SGX interrupt\n");
++              sgx_int = 1;
++      }
++      if (vdc_stat & _PSB_IRQ_MSVDX_FLAG) {
++              PSB_DEBUG_IRQ("Got MSVDX interrupt\n");
++              msvdx_int = 1;
++      }
++
++      if (vdc_stat & _LNC_IRQ_TOPAZ_FLAG) {
++              PSB_DEBUG_IRQ("Got TOPAX interrupt\n");
++              topaz_int = 1;
++      }
++      if (sgx_int && powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND)) {
++              sgx_stat = PSB_RSGX32(PSB_CR_EVENT_STATUS);
++              sgx_stat2 = PSB_RSGX32(PSB_CR_EVENT_STATUS2);
++
++              sgx_stat2 &= dev_priv->sgx2_irq_mask;
++              sgx_stat &= dev_priv->sgx_irq_mask;
++              PSB_WSGX32(sgx_stat2, PSB_CR_EVENT_HOST_CLEAR2);
++              PSB_WSGX32(sgx_stat, PSB_CR_EVENT_HOST_CLEAR);
++              (void) PSB_RSGX32(PSB_CR_EVENT_HOST_CLEAR);
++      } else if (unlikely(PSB_D_PM & drm_psb_debug)) {
++              if (sgx_int)
++                      PSB_DEBUG_PM("sgx int in down mode\n");
++      }
++      vdc_stat &= dev_priv->vdc_irq_mask;
++      spin_unlock(&dev_priv->irqmask_lock);
++
++      if (msvdx_int &&
++          powermgmt_is_hw_on(dev->pdev, PSB_VIDEO_DEC_ISLAND)) {
++              uint32_t msvdx_stat = 0;
++
++              msvdx_stat = PSB_RMSVDX32(MSVDX_INTERRUPT_STATUS);
++              psb_msvdx_interrupt(dev, msvdx_stat);
++              handled = 1;
++      }
++
++      if (IS_MRST(dev) && topaz_int &&
++          powermgmt_is_hw_on(dev->pdev, PSB_VIDEO_ENC_ISLAND)) {
++              /* sometimes, even topaz power down, IIR
++               * may still have topaz bit set
++               */
++              uint32_t topaz_stat = 0;
++
++              TOPAZ_READ32(TOPAZ_CR_IMG_TOPAZ_INTSTAT,&topaz_stat);
++              lnc_topaz_interrupt (dev, topaz_stat);
++              handled = 1;
++      }
++
++      if (vdc_stat && powermgmt_is_hw_on(dev->pdev, PSB_DISPLAY_ISLAND)) {
++              psb_vdc_interrupt(dev, vdc_stat);
++              handled = 1;
++      }
++
++      if (sgx_stat || sgx_stat2) {
++              psb_sgx_interrupt(dev, sgx_stat, sgx_stat2);
++              handled = 1;
++      }
++
++      PSB_WVDC32(vdc_stat, PSB_INT_IDENTITY_R);
++      (void) PSB_RVDC32(PSB_INT_IDENTITY_R);
++      DRM_READMEMORYBARRIER();
++
++      if (!handled)
++              return IRQ_NONE;
++
++
++      return IRQ_HANDLED;
++}
++
++void psb_irq_preinstall(struct drm_device *dev)
++{
++      psb_irq_preinstall_islands(dev, PSB_ALL_ISLANDS);
++}
++
++void psb_irq_preinstall_islands(struct drm_device *dev, int hw_islands)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      unsigned long irqflags;
++
++      spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++
++      if (hw_islands & PSB_DISPLAY_ISLAND) {
++              if (powermgmt_is_hw_on(dev->pdev, PSB_DISPLAY_ISLAND)) {
++                      if (IS_POULSBO(dev))
++                              PSB_WVDC32(0xFFFFFFFF, PSB_HWSTAM);
++                      if (dev->vblank_enabled[0])
++                              dev_priv->vdc_irq_mask |= _PSB_VSYNC_PIPEA_FLAG;
++                      if (dev->vblank_enabled[1])
++                              dev_priv->vdc_irq_mask |= _PSB_VSYNC_PIPEB_FLAG;
++              }
++      }
++
++      if (hw_islands & PSB_GRAPHICS_ISLAND) {
++              if (powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND)) {
++                      PSB_WSGX32(0x00000000, PSB_CR_EVENT_HOST_ENABLE);
++                      (void) PSB_RSGX32(PSB_CR_EVENT_HOST_ENABLE);
++
++                      dev_priv->sgx_irq_mask = _PSB_CE_PIXELBE_END_RENDER |
++                          _PSB_CE_DPM_3D_MEM_FREE |
++                          _PSB_CE_TA_FINISHED |
++                          _PSB_CE_DPM_REACHED_MEM_THRESH |
++                          _PSB_CE_DPM_OUT_OF_MEMORY_GBL |
++                          _PSB_CE_DPM_OUT_OF_MEMORY_MT |
++                          _PSB_CE_TA_TERMINATE | _PSB_CE_SW_EVENT;
++
++                      dev_priv->sgx2_irq_mask = _PSB_CE2_BIF_REQUESTER_FAULT;
++                      dev_priv->vdc_irq_mask |= _PSB_IRQ_SGX_FLAG;
++              }
++      }
++
++      if (hw_islands & PSB_VIDEO_DEC_ISLAND)
++              if (powermgmt_is_hw_on(dev->pdev, PSB_VIDEO_DEC_ISLAND))
++                      dev_priv->vdc_irq_mask |= _PSB_IRQ_MSVDX_FLAG;
++
++      if (hw_islands & PSB_VIDEO_ENC_ISLAND)
++              if (IS_MRST(dev) && powermgmt_is_hw_on(dev->pdev, PSB_VIDEO_ENC_ISLAND))
++                      dev_priv->vdc_irq_mask |= _LNC_IRQ_TOPAZ_FLAG;
++
++      /*This register is safe even if display island is off*/
++      PSB_WVDC32(~dev_priv->vdc_irq_mask, PSB_INT_MASK_R);
++
++      spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);
++}
++
++int psb_irq_postinstall(struct drm_device *dev)
++{
++      return psb_irq_postinstall_islands(dev, PSB_ALL_ISLANDS);
++}
++
++int psb_irq_postinstall_islands(struct drm_device *dev, int hw_islands)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      unsigned long irqflags;
++
++      spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++
++      /*This register is safe even if display island is off*/
++      PSB_WVDC32(dev_priv->vdc_irq_mask, PSB_INT_ENABLE_R);
++
++      if (hw_islands & PSB_DISPLAY_ISLAND) {
++              if (powermgmt_is_hw_on(dev->pdev, PSB_DISPLAY_ISLAND)) {        
++                      if (IS_POULSBO(dev))
++                               PSB_WVDC32(0xFFFFFFFF, PSB_HWSTAM);
++                      if (dev->vblank_enabled[0]) {
++                              if (IS_MRST(dev))
++                                      psb_enable_pipestat(dev_priv, 0,
++                                          PIPE_START_VBLANK_INTERRUPT_ENABLE |
++                                          PIPE_VBLANK_INTERRUPT_ENABLE);
++                              else
++                                      psb_enable_pipestat(dev_priv, 0,
++                                          PIPE_VBLANK_INTERRUPT_ENABLE);
++                      } else
++                              psb_disable_pipestat(dev_priv, 0,
++                                  PIPE_VBLANK_INTERRUPT_ENABLE |
++                                  PIPE_START_VBLANK_INTERRUPT_ENABLE);
++
++                      if (dev->vblank_enabled[1]) {
++                              if (IS_MRST(dev))
++                                      psb_enable_pipestat(dev_priv, 1,
++                                          PIPE_START_VBLANK_INTERRUPT_ENABLE |
++                                          PIPE_VBLANK_INTERRUPT_ENABLE);
++                              else
++                                      psb_enable_pipestat(dev_priv, 1,
++                                          PIPE_VBLANK_INTERRUPT_ENABLE);
++                      } else
++                              psb_disable_pipestat(dev_priv, 1,
++                                  PIPE_VBLANK_INTERRUPT_ENABLE |
++                                  PIPE_START_VBLANK_INTERRUPT_ENABLE);
++              }
++      }
++
++      if (hw_islands & PSB_GRAPHICS_ISLAND) {
++              if (powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND)) {
++                      PSB_WSGX32(dev_priv->sgx2_irq_mask,
++                                 PSB_CR_EVENT_HOST_ENABLE2);
++                      PSB_WSGX32(dev_priv->sgx_irq_mask,
++                                 PSB_CR_EVENT_HOST_ENABLE);
++                      (void) PSB_RSGX32(PSB_CR_EVENT_HOST_ENABLE);
++              }
++      }
++
++      if (IS_MRST(dev))
++              if (hw_islands & PSB_VIDEO_ENC_ISLAND)
++                      if (powermgmt_is_hw_on(dev->pdev, PSB_VIDEO_ENC_ISLAND))
++                              lnc_topaz_enableirq(dev);
++
++      if (hw_islands & PSB_VIDEO_DEC_ISLAND)
++              if (powermgmt_is_hw_on(dev->pdev, PSB_VIDEO_DEC_ISLAND))
++                      psb_msvdx_enableirq(dev);
++
++      if (hw_islands == PSB_ALL_ISLANDS)
++              dev_priv->irq_enabled = 1;
++
++      spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);
++
++      return 0;
++}
++
++void psb_irq_uninstall(struct drm_device *dev)
++{
++      psb_irq_uninstall_islands(dev, PSB_ALL_ISLANDS);
++}
++
++void psb_irq_uninstall_islands(struct drm_device *dev, int hw_islands)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      unsigned long irqflags;
++
++      spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++      
++      if (hw_islands & PSB_DISPLAY_ISLAND) {
++              if (powermgmt_is_hw_on(dev->pdev, PSB_DISPLAY_ISLAND)) {
++                      if (IS_POULSBO(dev))
++                              PSB_WVDC32(0xFFFFFFFF, PSB_HWSTAM);
++                      if (dev->vblank_enabled[0])
++                              psb_disable_pipestat(dev_priv, 0,
++                                  PIPE_VBLANK_INTERRUPT_ENABLE |
++                                  PIPE_START_VBLANK_INTERRUPT_ENABLE);
++                      if (dev->vblank_enabled[1])
++                              psb_disable_pipestat(dev_priv, 1,
++                                  PIPE_VBLANK_INTERRUPT_ENABLE |
++                                  PIPE_START_VBLANK_INTERRUPT_ENABLE);
++              }
++              dev_priv->vdc_irq_mask &= _PSB_IRQ_SGX_FLAG |
++                                        _PSB_IRQ_MSVDX_FLAG |
++                                        _LNC_IRQ_TOPAZ_FLAG;
++      }
++
++      if (hw_islands & PSB_GRAPHICS_ISLAND) {
++              dev_priv->vdc_irq_mask &= ~_PSB_IRQ_SGX_FLAG;
++              if (powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND)) {
++                      dev_priv->sgx_irq_mask = 0x00000000;
++                      dev_priv->sgx2_irq_mask = 0x00000000;
++                      PSB_WSGX32(dev_priv->sgx_irq_mask,
++                                 PSB_CR_EVENT_HOST_ENABLE);
++                      PSB_WSGX32(dev_priv->sgx2_irq_mask,
++                                 PSB_CR_EVENT_HOST_ENABLE2);
++              }
++      }
++
++      if (hw_islands & PSB_VIDEO_DEC_ISLAND)
++              dev_priv->vdc_irq_mask &= ~_PSB_IRQ_MSVDX_FLAG;
++
++      if (hw_islands & PSB_VIDEO_ENC_ISLAND)
++              dev_priv->vdc_irq_mask &= ~_LNC_IRQ_TOPAZ_FLAG;
++
++      /*These two registers are safe even if display island is off*/
++      PSB_WVDC32(~dev_priv->vdc_irq_mask, PSB_INT_MASK_R);
++      PSB_WVDC32(dev_priv->vdc_irq_mask, PSB_INT_ENABLE_R);
++
++      wmb();
++
++      /*This register is safe even if display island is off*/
++      PSB_WVDC32(PSB_RVDC32(PSB_INT_IDENTITY_R), PSB_INT_IDENTITY_R);
++
++      if (hw_islands & PSB_GRAPHICS_ISLAND) {
++              if (powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND)) {
++                      PSB_WSGX32(PSB_RSGX32(PSB_CR_EVENT_STATUS),
++                              PSB_CR_EVENT_HOST_CLEAR);
++                      PSB_WSGX32(PSB_RSGX32(PSB_CR_EVENT_STATUS2),
++                              PSB_CR_EVENT_HOST_CLEAR2);
++              }
++      }
++
++      if (IS_MRST(dev))
++              if (hw_islands & PSB_VIDEO_ENC_ISLAND)
++                      if (powermgmt_is_hw_on(dev->pdev, PSB_VIDEO_ENC_ISLAND))
++                              lnc_topaz_disableirq(dev);
++      if (hw_islands & PSB_VIDEO_DEC_ISLAND)
++              if (powermgmt_is_hw_on(dev->pdev, PSB_VIDEO_DEC_ISLAND))
++                      psb_msvdx_disableirq(dev);
++
++
++      if (hw_islands == PSB_ALL_ISLANDS)
++              dev_priv->irq_enabled = 0;
++
++      spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);
++}
++
++void psb_2D_irq_off(struct drm_psb_private *dev_priv)
++{
++      unsigned long irqflags;
++      uint32_t old_mask;
++      uint32_t cleared_mask;
++      struct drm_device *dev;
++
++      dev = container_of((void *) dev_priv, struct drm_device, dev_private);
++
++      spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++      --dev_priv->irqen_count_2d;
++      if (dev_priv->irq_enabled && dev_priv->irqen_count_2d == 0) {
++
++              old_mask = dev_priv->sgx_irq_mask;
++              dev_priv->sgx_irq_mask &= ~_PSB_CE_TWOD_COMPLETE;
++              if (powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND)) {
++                      PSB_WSGX32(dev_priv->sgx_irq_mask,
++                                 PSB_CR_EVENT_HOST_ENABLE);
++                      (void) PSB_RSGX32(PSB_CR_EVENT_HOST_ENABLE);
++
++                      cleared_mask =
++                          (old_mask ^ dev_priv->sgx_irq_mask) & old_mask;
++                      PSB_WSGX32(cleared_mask, PSB_CR_EVENT_HOST_CLEAR);
++                      (void) PSB_RSGX32(PSB_CR_EVENT_HOST_CLEAR);
++              }
++      }
++      spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);
++}
++
++void psb_2D_irq_on(struct drm_psb_private *dev_priv)
++{
++      unsigned long irqflags;
++      struct drm_device *dev;
++
++      dev = container_of((void *) dev_priv, struct drm_device, dev_private);
++
++      spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++      if (dev_priv->irq_enabled && dev_priv->irqen_count_2d == 0) {
++              dev_priv->sgx_irq_mask |= _PSB_CE_TWOD_COMPLETE;
++              if (powermgmt_is_hw_on(dev->pdev, PSB_GRAPHICS_ISLAND)) {
++                      PSB_WSGX32(dev_priv->sgx_irq_mask,
++                                 PSB_CR_EVENT_HOST_ENABLE);
++                      (void) PSB_RSGX32(PSB_CR_EVENT_HOST_ENABLE);
++              }
++      }
++      ++dev_priv->irqen_count_2d;
++      spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);
++}
++
++#ifdef PSB_FIXME
++static int psb_vblank_do_wait(struct drm_device *dev,
++                            unsigned int *sequence, atomic_t *counter)
++{
++      unsigned int cur_vblank;
++      int ret = 0;
++      DRM_WAIT_ON(ret, dev->vbl_queue, 3 * DRM_HZ,
++                  (((cur_vblank = atomic_read(counter))
++                    - *sequence) <= (1 << 23)));
++      *sequence = cur_vblank;
++
++      return ret;
++}
++#endif
++
++
++/* Called from drm generic code, passed 'crtc' which
++ * we use as a pipe index
++ */
++int psb_enable_vblank(struct drm_device *dev, int pipe)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      unsigned long irqflags;
++      int pipeconf_reg = (pipe == 0) ? PIPEACONF : PIPEBCONF;
++      u32 pipeconf = 0;
++
++      if (powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              pipeconf = REG_READ(pipeconf_reg);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++      if (!(pipeconf & PIPEACONF_ENABLE))
++              return -EINVAL;
++
++      spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++      if (powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              drm_psb_disable_vsync = 0;
++              if (pipe == 0)
++                      dev_priv->vdc_irq_mask |= _PSB_VSYNC_PIPEA_FLAG;
++              else
++                      dev_priv->vdc_irq_mask |= _PSB_VSYNC_PIPEB_FLAG;
++              PSB_WVDC32(~dev_priv->vdc_irq_mask, PSB_INT_MASK_R);
++              PSB_WVDC32(dev_priv->vdc_irq_mask, PSB_INT_ENABLE_R);
++              if (IS_MRST(dev)) {
++                      psb_enable_pipestat(dev_priv, pipe,
++                          PIPE_START_VBLANK_INTERRUPT_ENABLE |
++                          PIPE_VBLANK_INTERRUPT_ENABLE);
++              } else
++                      psb_enable_pipestat(dev_priv, pipe,
++                          PIPE_VBLANK_INTERRUPT_ENABLE);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++      spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);
++
++      return 0;
++}
++
++/* Called from drm generic code, passed 'crtc' which
++ * we use as a pipe index
++ */
++void psb_disable_vblank(struct drm_device *dev, int pipe)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      unsigned long irqflags;
++      spin_lock_irqsave(&dev_priv->irqmask_lock, irqflags);
++      if (powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              if (pipe == 0)
++                      dev_priv->vdc_irq_mask &= ~_PSB_VSYNC_PIPEA_FLAG;
++              else
++                      dev_priv->vdc_irq_mask &= ~_PSB_VSYNC_PIPEB_FLAG;
++              PSB_WVDC32(~dev_priv->vdc_irq_mask, PSB_INT_MASK_R);
++              PSB_WVDC32(dev_priv->vdc_irq_mask, PSB_INT_ENABLE_R);
++              psb_disable_pipestat(dev_priv, pipe,
++                  PIPE_VBLANK_INTERRUPT_ENABLE |
++                  PIPE_START_VBLANK_INTERRUPT_ENABLE);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++      spin_unlock_irqrestore(&dev_priv->irqmask_lock, irqflags);
++}
++
++static inline u32
++psb_pipestat(int pipe)
++{
++      if (pipe == 0)
++              return PIPEASTAT;
++      if (pipe == 1)
++              return PIPEBSTAT;
++      BUG();
++}
++
++void
++psb_enable_pipestat(struct drm_psb_private *dev_priv, int pipe, u32 mask)
++{
++      if ((dev_priv->pipestat[pipe] & mask) != mask) {
++              u32 reg = psb_pipestat(pipe);
++              dev_priv->pipestat[pipe] |= mask;
++              /* Enable the interrupt, clear any pending status */
++              if (powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++                      u32 writeVal = PSB_RVDC32(reg);
++                      writeVal |= (mask | (mask >> 16));
++                      PSB_WVDC32(writeVal, reg);
++                      (void) PSB_RVDC32(reg);
++                      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++              }
++      }
++}
++
++void
++psb_disable_pipestat(struct drm_psb_private *dev_priv, int pipe, u32 mask)
++{
++      if ((dev_priv->pipestat[pipe] & mask) != 0) {
++              u32 reg = psb_pipestat(pipe);
++              dev_priv->pipestat[pipe] &= ~mask;
++              if (powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++                      u32 writeVal = PSB_RVDC32(reg);
++                      writeVal &= ~mask;
++                      PSB_WVDC32(writeVal, reg);
++                      (void) PSB_RVDC32(reg);
++                      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++              }
++      }
++}
++
++/**
++ * psb_pipe_enabled - check if a pipe is enabled
++ * @dev: DRM device
++ * @pipe: pipe to check
++ *
++ * Reading certain registers when the pipe is disabled can hang the chip.
++ * Use this routine to make sure the PLL is running and the pipe is active
++ * before reading such registers if unsure.
++ */
++static int
++psb_pipe_enabled(struct drm_device *dev, int pipe)
++{
++      unsigned long pipeconf = pipe ? PIPEBCONF : PIPEACONF;
++      int ret = 0;
++
++      if (powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false)) {
++              ret = (REG_READ(pipeconf) & PIPEACONF_ENABLE);
++              powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++      }
++
++      return ret;
++}
++
++/* Called from drm generic code, passed a 'crtc', which
++ * we use as a pipe index
++ */
++u32 psb_get_vblank_counter(struct drm_device *dev, int pipe)
++{
++      unsigned long high_frame;
++      unsigned long low_frame;
++      u32 high1, high2, low;
++      u32 count = 0;
++
++      high_frame = pipe ? PIPEBFRAMEHIGH : PIPEAFRAMEHIGH;
++      low_frame = pipe ? PIPEBFRAMEPIXEL : PIPEAFRAMEPIXEL;
++
++      if (!powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false))
++              return 0;
++
++      if (!psb_pipe_enabled(dev, pipe)) {
++              DRM_DEBUG("trying to get vblank count for disabled pipe %d\n", pipe);
++              goto psb_get_vblank_counter_exit;
++      }
++
++      /*
++       * High & low register fields aren't synchronized, so make sure
++       * we get a low value that's stable across two reads of the high
++       * register.
++       */
++      do {
++              high1 = ((REG_READ(high_frame) & PIPE_FRAME_HIGH_MASK) >>
++                       PIPE_FRAME_HIGH_SHIFT);
++              low =  ((REG_READ(low_frame) & PIPE_FRAME_LOW_MASK) >>
++                      PIPE_FRAME_LOW_SHIFT);
++              high2 = ((REG_READ(high_frame) & PIPE_FRAME_HIGH_MASK) >>
++                       PIPE_FRAME_HIGH_SHIFT);
++      } while (high1 != high2);
++
++      count = (high1 << 8) | low;
++
++psb_get_vblank_counter_exit:
++
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++
++      return count;
++}
+diff --git a/drivers/gpu/drm/psb/psb_mmu.c b/drivers/gpu/drm/psb/psb_mmu.c
+new file mode 100644
+index 0000000..d3ff8e0
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_mmu.c
+@@ -0,0 +1,1073 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "psb_reg.h"
++#include "psb_powermgmt.h"
++
++/*
++ * Code for the SGX MMU:
++ */
++
++/*
++ * clflush on one processor only:
++ * clflush should apparently flush the cache line on all processors in an
++ * SMP system.
++ */
++
++/*
++ * kmap atomic:
++ * The usage of the slots must be completely encapsulated within a spinlock, and
++ * no other functions that may be using the locks for other purposed may be
++ * called from within the locked region.
++ * Since the slots are per processor, this will guarantee that we are the only
++ * user.
++ */
++
++/*
++ * TODO: Inserting ptes from an interrupt handler:
++ * This may be desirable for some SGX functionality where the GPU can fault in
++ * needed pages. For that, we need to make an atomic insert_pages function, that
++ * may fail.
++ * If it fails, the caller need to insert the page using a workqueue function,
++ * but on average it should be fast.
++ */
++
++struct psb_mmu_driver {
++      /* protects driver- and pd structures. Always take in read mode
++       * before taking the page table spinlock.
++       */
++      struct rw_semaphore sem;
++
++      /* protects page tables, directory tables and pt tables.
++       * and pt structures.
++       */
++      spinlock_t lock;
++
++      atomic_t needs_tlbflush;
++
++      uint8_t __iomem *register_map;
++      struct psb_mmu_pd *default_pd;
++      uint32_t bif_ctrl;
++      int has_clflush;
++      int clflush_add;
++      unsigned long clflush_mask;
++
++      struct drm_psb_private *dev_priv;
++};
++
++struct psb_mmu_pd;
++
++struct psb_mmu_pt {
++      struct psb_mmu_pd *pd;
++      uint32_t index;
++      uint32_t count;
++      struct page *p;
++      uint32_t *v;
++};
++
++struct psb_mmu_pd {
++      struct psb_mmu_driver *driver;
++      int hw_context;
++      struct psb_mmu_pt **tables;
++      struct page *p;
++      struct page *dummy_pt;
++      struct page *dummy_page;
++      uint32_t pd_mask;
++      uint32_t invalid_pde;
++      uint32_t invalid_pte;
++};
++
++void topaz_mmu_flushcache(struct drm_psb_private *dev_priv);
++
++static inline uint32_t psb_mmu_pt_index(uint32_t offset)
++{
++      return (offset >> PSB_PTE_SHIFT) & 0x3FF;
++}
++
++static inline uint32_t psb_mmu_pd_index(uint32_t offset)
++{
++      return offset >> PSB_PDE_SHIFT;
++}
++
++#if defined(CONFIG_X86)
++static inline void psb_clflush(void *addr)
++{
++      __asm__ __volatile__("clflush (%0)\n" : : "r"(addr) : "memory");
++}
++
++static inline void psb_mmu_clflush(struct psb_mmu_driver *driver,
++                                 void *addr)
++{
++      if (!driver->has_clflush)
++              return;
++
++      mb();
++      psb_clflush(addr);
++      mb();
++}
++#else
++
++static inline void psb_mmu_clflush(struct psb_mmu_driver *driver,
++                                 void *addr)
++{;
++}
++
++#endif
++
++static inline void psb_iowrite32(const struct psb_mmu_driver *d,
++                               uint32_t val, uint32_t offset)
++{
++      iowrite32(val, d->register_map + offset);
++}
++
++static inline uint32_t psb_ioread32(const struct psb_mmu_driver *d,
++                                  uint32_t offset)
++{
++      return ioread32(d->register_map + offset);
++}
++
++static void psb_mmu_flush_pd_locked(struct psb_mmu_driver *driver,
++                                  int force)
++{
++      if (atomic_read(&driver->needs_tlbflush) || force) {
++              uint32_t val = psb_ioread32(driver, PSB_CR_BIF_CTRL);
++              psb_iowrite32(driver, val | _PSB_CB_CTRL_INVALDC,
++                            PSB_CR_BIF_CTRL);
++              wmb();
++              psb_iowrite32(driver, val & ~_PSB_CB_CTRL_INVALDC,
++                            PSB_CR_BIF_CTRL);
++              (void)psb_ioread32(driver, PSB_CR_BIF_CTRL);
++              if (driver->dev_priv) {
++                      atomic_set(&driver->dev_priv->msvdx_mmu_invaldc, 1);
++                      if (IS_MRST(driver->dev_priv->dev))
++                              topaz_mmu_flushcache(driver->dev_priv);
++              }
++      }
++      atomic_set(&driver->needs_tlbflush, 0);
++}
++
++static void psb_mmu_flush_pd(struct psb_mmu_driver *driver, int force)
++{
++      down_write(&driver->sem);
++      psb_mmu_flush_pd_locked(driver, force);
++      up_write(&driver->sem);
++}
++
++void psb_mmu_flush(struct psb_mmu_driver *driver)
++{
++      uint32_t val;
++
++      if (powermgmt_using_hw_begin(driver->dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, false)) {
++              down_write(&driver->sem);
++              val = psb_ioread32(driver, PSB_CR_BIF_CTRL);
++              if (atomic_read(&driver->needs_tlbflush))
++                      psb_iowrite32(driver, val | _PSB_CB_CTRL_INVALDC,
++                                    PSB_CR_BIF_CTRL);
++              else
++                      psb_iowrite32(driver, val | _PSB_CB_CTRL_FLUSH,
++                                    PSB_CR_BIF_CTRL);
++              wmb();
++              psb_iowrite32(driver,
++                            val & ~(_PSB_CB_CTRL_FLUSH | _PSB_CB_CTRL_INVALDC),
++                            PSB_CR_BIF_CTRL);
++              (void) psb_ioread32(driver, PSB_CR_BIF_CTRL);
++              atomic_set(&driver->needs_tlbflush, 0);
++              up_write(&driver->sem);
++              powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      } else {
++              PSB_DEBUG_PM("mmu flush when down\n");
++      }
++
++      down_write(&driver->sem);
++      if (driver->dev_priv) {
++              atomic_set(&driver->dev_priv->msvdx_mmu_invaldc, 1);
++              if (IS_MRST(driver->dev_priv->dev))
++                      topaz_mmu_flushcache(driver->dev_priv);
++      }
++
++      up_write(&driver->sem);
++}
++
++void psb_mmu_set_pd_context(struct psb_mmu_pd *pd, int hw_context)
++{
++      uint32_t offset = (hw_context == 0) ? PSB_CR_BIF_DIR_LIST_BASE0 :
++          PSB_CR_BIF_DIR_LIST_BASE1 + hw_context * 4;
++
++      ttm_tt_cache_flush(&pd->p, 1);
++      down_write(&pd->driver->sem);
++      psb_iowrite32(pd->driver, (page_to_pfn(pd->p) << PAGE_SHIFT),
++                    offset);
++      wmb();
++      psb_mmu_flush_pd_locked(pd->driver, 1);
++      pd->hw_context = hw_context;
++      up_write(&pd->driver->sem);
++
++}
++
++static inline unsigned long psb_pd_addr_end(unsigned long addr,
++                                          unsigned long end)
++{
++
++      addr = (addr + PSB_PDE_MASK + 1) & ~PSB_PDE_MASK;
++      return (addr < end) ? addr : end;
++}
++
++static inline uint32_t psb_mmu_mask_pte(uint32_t pfn, int type)
++{
++      uint32_t mask = PSB_PTE_VALID;
++
++      if (type & PSB_MMU_CACHED_MEMORY)
++              mask |= PSB_PTE_CACHED;
++      if (type & PSB_MMU_RO_MEMORY)
++              mask |= PSB_PTE_RO;
++      if (type & PSB_MMU_WO_MEMORY)
++              mask |= PSB_PTE_WO;
++
++      return (pfn << PAGE_SHIFT) | mask;
++}
++
++struct psb_mmu_pd *psb_mmu_alloc_pd(struct psb_mmu_driver *driver,
++                                  int trap_pagefaults, int invalid_type)
++{
++      struct psb_mmu_pd *pd = kmalloc(sizeof(*pd), GFP_KERNEL);
++      uint32_t *v;
++      int i;
++
++      if (!pd)
++              return NULL;
++
++      pd->p = alloc_page(GFP_DMA32);
++      if (!pd->p)
++              goto out_err1;
++      pd->dummy_pt = alloc_page(GFP_DMA32);
++      if (!pd->dummy_pt)
++              goto out_err2;
++      pd->dummy_page = alloc_page(GFP_DMA32);
++      if (!pd->dummy_page)
++              goto out_err3;
++
++      if (!trap_pagefaults) {
++              pd->invalid_pde =
++                  psb_mmu_mask_pte(page_to_pfn(pd->dummy_pt),
++                                   invalid_type);
++              pd->invalid_pte =
++                  psb_mmu_mask_pte(page_to_pfn(pd->dummy_page),
++                                   invalid_type);
++      } else {
++              pd->invalid_pde = 0;
++              pd->invalid_pte = 0;
++      }
++
++      v = kmap(pd->dummy_pt);
++      for (i = 0; i < (PAGE_SIZE / sizeof(uint32_t)); ++i)
++              v[i] = pd->invalid_pte;
++
++      kunmap(pd->dummy_pt);
++
++      v = kmap(pd->p);
++      for (i = 0; i < (PAGE_SIZE / sizeof(uint32_t)); ++i)
++              v[i] = pd->invalid_pde;
++
++      kunmap(pd->p);
++
++      clear_page(kmap(pd->dummy_page));
++      kunmap(pd->dummy_page);
++
++      pd->tables = vmalloc_user(sizeof(struct psb_mmu_pt *) * 1024);
++      if (!pd->tables)
++              goto out_err4;
++
++      pd->hw_context = -1;
++      pd->pd_mask = PSB_PTE_VALID;
++      pd->driver = driver;
++
++      return pd;
++
++out_err4:
++      __free_page(pd->dummy_page);
++out_err3:
++      __free_page(pd->dummy_pt);
++out_err2:
++      __free_page(pd->p);
++out_err1:
++      kfree(pd);
++      return NULL;
++}
++
++void psb_mmu_free_pt(struct psb_mmu_pt *pt)
++{
++      __free_page(pt->p);
++      kfree(pt);
++}
++
++void psb_mmu_free_pagedir(struct psb_mmu_pd *pd)
++{
++      struct psb_mmu_driver *driver = pd->driver;
++      struct psb_mmu_pt *pt;
++      int i;
++
++      down_write(&driver->sem);
++      if (pd->hw_context != -1) {
++              psb_iowrite32(driver, 0,
++                            PSB_CR_BIF_DIR_LIST_BASE0 +
++                            pd->hw_context * 4);
++              psb_mmu_flush_pd_locked(driver, 1);
++      }
++
++      /* Should take the spinlock here, but we don't need to do that
++         since we have the semaphore in write mode. */
++
++      for (i = 0; i < 1024; ++i) {
++              pt = pd->tables[i];
++              if (pt)
++                      psb_mmu_free_pt(pt);
++      }
++
++      vfree(pd->tables);
++      __free_page(pd->dummy_page);
++      __free_page(pd->dummy_pt);
++      __free_page(pd->p);
++      kfree(pd);
++      up_write(&driver->sem);
++}
++
++static struct psb_mmu_pt *psb_mmu_alloc_pt(struct psb_mmu_pd *pd)
++{
++      struct psb_mmu_pt *pt = kmalloc(sizeof(*pt), GFP_KERNEL);
++      void *v;
++      uint32_t clflush_add = pd->driver->clflush_add >> PAGE_SHIFT;
++      uint32_t clflush_count = PAGE_SIZE / clflush_add;
++      spinlock_t *lock = &pd->driver->lock;
++      uint8_t *clf;
++      uint32_t *ptes;
++      int i;
++
++      if (!pt)
++              return NULL;
++
++      pt->p = alloc_page(GFP_DMA32);
++      if (!pt->p) {
++              kfree(pt);
++              return NULL;
++      }
++
++      spin_lock(lock);
++
++      v = kmap_atomic(pt->p, KM_USER0);
++      clf = (uint8_t *) v;
++      ptes = (uint32_t *) v;
++      for (i = 0; i < (PAGE_SIZE / sizeof(uint32_t)); ++i)
++              *ptes++ = pd->invalid_pte;
++
++
++#if defined(CONFIG_X86)
++      if (pd->driver->has_clflush && pd->hw_context != -1) {
++              mb();
++              for (i = 0; i < clflush_count; ++i) {
++                      psb_clflush(clf);
++                      clf += clflush_add;
++              }
++              mb();
++      }
++#endif
++      kunmap_atomic(v, KM_USER0);
++      spin_unlock(lock);
++
++      pt->count = 0;
++      pt->pd = pd;
++      pt->index = 0;
++
++      return pt;
++}
++
++struct psb_mmu_pt *psb_mmu_pt_alloc_map_lock(struct psb_mmu_pd *pd,
++                                           unsigned long addr)
++{
++      uint32_t index = psb_mmu_pd_index(addr);
++      struct psb_mmu_pt *pt;
++      uint32_t *v;
++      spinlock_t *lock = &pd->driver->lock;
++
++      spin_lock(lock);
++      pt = pd->tables[index];
++      while (!pt) {
++              spin_unlock(lock);
++              pt = psb_mmu_alloc_pt(pd);
++              if (!pt)
++                      return NULL;
++              spin_lock(lock);
++
++              if (pd->tables[index]) {
++                      spin_unlock(lock);
++                      psb_mmu_free_pt(pt);
++                      spin_lock(lock);
++                      pt = pd->tables[index];
++                      continue;
++              }
++
++              v = kmap_atomic(pd->p, KM_USER0);
++              pd->tables[index] = pt;
++              v[index] = (page_to_pfn(pt->p) << 12) | pd->pd_mask;
++              pt->index = index;
++              kunmap_atomic((void *) v, KM_USER0);
++
++              if (pd->hw_context != -1) {
++                      psb_mmu_clflush(pd->driver, (void *) &v[index]);
++                      atomic_set(&pd->driver->needs_tlbflush, 1);
++              }
++      }
++      pt->v = kmap_atomic(pt->p, KM_USER0);
++      return pt;
++}
++
++static struct psb_mmu_pt *psb_mmu_pt_map_lock(struct psb_mmu_pd *pd,
++                                            unsigned long addr)
++{
++      uint32_t index = psb_mmu_pd_index(addr);
++      struct psb_mmu_pt *pt;
++      spinlock_t *lock = &pd->driver->lock;
++
++      spin_lock(lock);
++      pt = pd->tables[index];
++      if (!pt) {
++              spin_unlock(lock);
++              return NULL;
++      }
++      pt->v = kmap_atomic(pt->p, KM_USER0);
++      return pt;
++}
++
++static void psb_mmu_pt_unmap_unlock(struct psb_mmu_pt *pt)
++{
++      struct psb_mmu_pd *pd = pt->pd;
++      uint32_t *v;
++
++      kunmap_atomic(pt->v, KM_USER0);
++      if (pt->count == 0) {
++              v = kmap_atomic(pd->p, KM_USER0);
++              v[pt->index] = pd->invalid_pde;
++              pd->tables[pt->index] = NULL;
++
++              if (pd->hw_context != -1) {
++                      psb_mmu_clflush(pd->driver,
++                                      (void *) &v[pt->index]);
++                      atomic_set(&pd->driver->needs_tlbflush, 1);
++              }
++              kunmap_atomic(pt->v, KM_USER0);
++              spin_unlock(&pd->driver->lock);
++              psb_mmu_free_pt(pt);
++              return;
++      }
++      spin_unlock(&pd->driver->lock);
++}
++
++static inline void psb_mmu_set_pte(struct psb_mmu_pt *pt,
++                                 unsigned long addr, uint32_t pte)
++{
++      pt->v[psb_mmu_pt_index(addr)] = pte;
++}
++
++static inline void psb_mmu_invalidate_pte(struct psb_mmu_pt *pt,
++                                        unsigned long addr)
++{
++      pt->v[psb_mmu_pt_index(addr)] = pt->pd->invalid_pte;
++}
++
++#if 0
++static uint32_t psb_mmu_check_pte_locked(struct psb_mmu_pd *pd,
++                                       uint32_t mmu_offset)
++{
++      uint32_t *v;
++      uint32_t pfn;
++
++      v = kmap_atomic(pd->p, KM_USER0);
++      if (!v) {
++              printk(KERN_INFO "Could not kmap pde page.\n");
++              return 0;
++      }
++      pfn = v[psb_mmu_pd_index(mmu_offset)];
++      /*      printk(KERN_INFO "pde is 0x%08x\n",pfn); */
++      kunmap_atomic(v, KM_USER0);
++      if (((pfn & 0x0F) != PSB_PTE_VALID)) {
++              printk(KERN_INFO "Strange pde at 0x%08x: 0x%08x.\n",
++                     mmu_offset, pfn);
++      }
++      v = ioremap(pfn & 0xFFFFF000, 4096);
++      if (!v) {
++              printk(KERN_INFO "Could not kmap pte page.\n");
++              return 0;
++      }
++      pfn = v[psb_mmu_pt_index(mmu_offset)];
++      /* printk(KERN_INFO "pte is 0x%08x\n",pfn); */
++      iounmap(v);
++      if (((pfn & 0x0F) != PSB_PTE_VALID)) {
++              printk(KERN_INFO "Strange pte at 0x%08x: 0x%08x.\n",
++                     mmu_offset, pfn);
++      }
++      return pfn >> PAGE_SHIFT;
++}
++
++static void psb_mmu_check_mirrored_gtt(struct psb_mmu_pd *pd,
++                                     uint32_t mmu_offset,
++                                     uint32_t gtt_pages)
++{
++      uint32_t start;
++      uint32_t next;
++
++      printk(KERN_INFO "Checking mirrored gtt 0x%08x %d\n",
++             mmu_offset, gtt_pages);
++      down_read(&pd->driver->sem);
++      start = psb_mmu_check_pte_locked(pd, mmu_offset);
++      mmu_offset += PAGE_SIZE;
++      gtt_pages -= 1;
++      while (gtt_pages--) {
++              next = psb_mmu_check_pte_locked(pd, mmu_offset);
++              if (next != start + 1) {
++                      printk(KERN_INFO
++                             "Ptes out of order: 0x%08x, 0x%08x.\n",
++                             start, next);
++              }
++              start = next;
++              mmu_offset += PAGE_SIZE;
++      }
++      up_read(&pd->driver->sem);
++}
++
++#endif
++
++void psb_mmu_mirror_gtt(struct psb_mmu_pd *pd,
++                      uint32_t mmu_offset, uint32_t gtt_start,
++                      uint32_t gtt_pages)
++{
++      uint32_t *v;
++      uint32_t start = psb_mmu_pd_index(mmu_offset);
++      struct psb_mmu_driver *driver = pd->driver;
++      int num_pages = gtt_pages;
++
++      down_read(&driver->sem);
++      spin_lock(&driver->lock);
++
++      v = kmap_atomic(pd->p, KM_USER0);
++      v += start;
++
++      while (gtt_pages--) {
++              *v++ = gtt_start | pd->pd_mask;
++              gtt_start += PAGE_SIZE;
++      }
++
++      ttm_tt_cache_flush(&pd->p, num_pages);
++      kunmap_atomic(v, KM_USER0);
++      spin_unlock(&driver->lock);
++
++      if (pd->hw_context != -1)
++              atomic_set(&pd->driver->needs_tlbflush, 1);
++
++      up_read(&pd->driver->sem);
++      psb_mmu_flush_pd(pd->driver, 0);
++}
++
++struct psb_mmu_pd *psb_mmu_get_default_pd(struct psb_mmu_driver *driver)
++{
++      struct psb_mmu_pd *pd;
++
++      down_read(&driver->sem);
++      pd = driver->default_pd;
++      up_read(&driver->sem);
++
++      return pd;
++}
++
++/* Returns the physical address of the PD shared by sgx/msvdx */
++uint32_t psb_get_default_pd_addr(struct psb_mmu_driver *driver)
++{
++      struct psb_mmu_pd *pd;
++
++      pd = psb_mmu_get_default_pd(driver);
++      return page_to_pfn(pd->p) << PAGE_SHIFT;
++}
++
++void psb_mmu_driver_takedown(struct psb_mmu_driver *driver)
++{
++      psb_iowrite32(driver, driver->bif_ctrl, PSB_CR_BIF_CTRL);
++      psb_mmu_free_pagedir(driver->default_pd);
++      kfree(driver);
++}
++
++struct psb_mmu_driver *psb_mmu_driver_init(uint8_t __iomem * registers,
++                                      int trap_pagefaults,
++                                      int invalid_type,
++                                      struct drm_psb_private *dev_priv)
++{
++      struct psb_mmu_driver *driver;
++
++      driver = kmalloc(sizeof(*driver), GFP_KERNEL);
++
++      if (!driver)
++              return NULL;
++      driver->dev_priv = dev_priv;
++
++      driver->default_pd = psb_mmu_alloc_pd(driver, trap_pagefaults,
++                                            invalid_type);
++      if (!driver->default_pd)
++              goto out_err1;
++
++      spin_lock_init(&driver->lock);
++      init_rwsem(&driver->sem);
++      down_write(&driver->sem);
++      driver->register_map = registers;
++      atomic_set(&driver->needs_tlbflush, 1);
++
++      driver->bif_ctrl = psb_ioread32(driver, PSB_CR_BIF_CTRL);
++      psb_iowrite32(driver, driver->bif_ctrl | _PSB_CB_CTRL_CLEAR_FAULT,
++                    PSB_CR_BIF_CTRL);
++      psb_iowrite32(driver, driver->bif_ctrl & ~_PSB_CB_CTRL_CLEAR_FAULT,
++                    PSB_CR_BIF_CTRL);
++
++      driver->has_clflush = 0;
++
++#if defined(CONFIG_X86)
++      if (boot_cpu_has(X86_FEATURE_CLFLSH)) {
++              uint32_t tfms, misc, cap0, cap4, clflush_size;
++
++              /*
++               * clflush size is determined at kernel setup for x86_64
++               *  but not for i386. We have to do it here.
++               */
++
++              cpuid(0x00000001, &tfms, &misc, &cap0, &cap4);
++              clflush_size = ((misc >> 8) & 0xff) * 8;
++              driver->has_clflush = 1;
++              driver->clflush_add =
++                  PAGE_SIZE * clflush_size / sizeof(uint32_t);
++              driver->clflush_mask = driver->clflush_add - 1;
++              driver->clflush_mask = ~driver->clflush_mask;
++      }
++#endif
++
++      up_write(&driver->sem);
++      return driver;
++
++out_err1:
++      kfree(driver);
++      return NULL;
++}
++
++#if defined(CONFIG_X86)
++static void psb_mmu_flush_ptes(struct psb_mmu_pd *pd,
++                             unsigned long address, uint32_t num_pages,
++                             uint32_t desired_tile_stride,
++                             uint32_t hw_tile_stride)
++{
++      struct psb_mmu_pt *pt;
++      uint32_t rows = 1;
++      uint32_t i;
++      unsigned long addr;
++      unsigned long end;
++      unsigned long next;
++      unsigned long add;
++      unsigned long row_add;
++      unsigned long clflush_add = pd->driver->clflush_add;
++      unsigned long clflush_mask = pd->driver->clflush_mask;
++
++      if (!pd->driver->has_clflush) {
++              ttm_tt_cache_flush(&pd->p, num_pages);
++              return;
++      }
++
++      if (hw_tile_stride)
++              rows = num_pages / desired_tile_stride;
++      else
++              desired_tile_stride = num_pages;
++
++      add = desired_tile_stride << PAGE_SHIFT;
++      row_add = hw_tile_stride << PAGE_SHIFT;
++      mb();
++      for (i = 0; i < rows; ++i) {
++
++              addr = address;
++              end = addr + add;
++
++              do {
++                      next = psb_pd_addr_end(addr, end);
++                      pt = psb_mmu_pt_map_lock(pd, addr);
++                      if (!pt)
++                              continue;
++                      do {
++                              psb_clflush(&pt->v
++                                          [psb_mmu_pt_index(addr)]);
++                      } while (addr +=
++                               clflush_add,
++                               (addr & clflush_mask) < next);
++
++                      psb_mmu_pt_unmap_unlock(pt);
++              } while (addr = next, next != end);
++              address += row_add;
++      }
++      mb();
++}
++#else
++static void psb_mmu_flush_ptes(struct psb_mmu_pd *pd,
++                             unsigned long address, uint32_t num_pages,
++                             uint32_t desired_tile_stride,
++                             uint32_t hw_tile_stride)
++{
++      drm_ttm_cache_flush(&pd->p, num_pages);
++}
++#endif
++
++void psb_mmu_remove_pfn_sequence(struct psb_mmu_pd *pd,
++                               unsigned long address, uint32_t num_pages)
++{
++      struct psb_mmu_pt *pt;
++      unsigned long addr;
++      unsigned long end;
++      unsigned long next;
++      unsigned long f_address = address;
++
++      down_read(&pd->driver->sem);
++
++      addr = address;
++      end = addr + (num_pages << PAGE_SHIFT);
++
++      do {
++              next = psb_pd_addr_end(addr, end);
++              pt = psb_mmu_pt_alloc_map_lock(pd, addr);
++              if (!pt)
++                      goto out;
++              do {
++                      psb_mmu_invalidate_pte(pt, addr);
++                      --pt->count;
++              } while (addr += PAGE_SIZE, addr < next);
++              psb_mmu_pt_unmap_unlock(pt);
++
++      } while (addr = next, next != end);
++
++out:
++      if (pd->hw_context != -1)
++              psb_mmu_flush_ptes(pd, f_address, num_pages, 1, 1);
++
++      up_read(&pd->driver->sem);
++
++      if (pd->hw_context != -1)
++              psb_mmu_flush(pd->driver);
++
++      return;
++}
++
++void psb_mmu_remove_pages(struct psb_mmu_pd *pd, unsigned long address,
++                        uint32_t num_pages, uint32_t desired_tile_stride,
++                        uint32_t hw_tile_stride)
++{
++      struct psb_mmu_pt *pt;
++      uint32_t rows = 1;
++      uint32_t i;
++      unsigned long addr;
++      unsigned long end;
++      unsigned long next;
++      unsigned long add;
++      unsigned long row_add;
++      unsigned long f_address = address;
++
++      if (hw_tile_stride)
++              rows = num_pages / desired_tile_stride;
++      else
++              desired_tile_stride = num_pages;
++
++      add = desired_tile_stride << PAGE_SHIFT;
++      row_add = hw_tile_stride << PAGE_SHIFT;
++
++      down_read(&pd->driver->sem);
++
++      /* Make sure we only need to flush this processor's cache */
++
++      for (i = 0; i < rows; ++i) {
++
++              addr = address;
++              end = addr + add;
++
++              do {
++                      next = psb_pd_addr_end(addr, end);
++                      pt = psb_mmu_pt_map_lock(pd, addr);
++                      if (!pt)
++                              continue;
++                      do {
++                              psb_mmu_invalidate_pte(pt, addr);
++                              --pt->count;
++
++                      } while (addr += PAGE_SIZE, addr < next);
++                      psb_mmu_pt_unmap_unlock(pt);
++
++              } while (addr = next, next != end);
++              address += row_add;
++      }
++      if (pd->hw_context != -1)
++              psb_mmu_flush_ptes(pd, f_address, num_pages,
++                                 desired_tile_stride, hw_tile_stride);
++
++      up_read(&pd->driver->sem);
++
++      if (pd->hw_context != -1)
++              psb_mmu_flush(pd->driver);
++}
++
++int psb_mmu_insert_pfn_sequence(struct psb_mmu_pd *pd, uint32_t start_pfn,
++                              unsigned long address, uint32_t num_pages,
++                              int type)
++{
++      struct psb_mmu_pt *pt;
++      uint32_t pte;
++      unsigned long addr;
++      unsigned long end;
++      unsigned long next;
++      unsigned long f_address = address;
++      int ret = 0;
++
++      down_read(&pd->driver->sem);
++
++      addr = address;
++      end = addr + (num_pages << PAGE_SHIFT);
++
++      do {
++              next = psb_pd_addr_end(addr, end);
++              pt = psb_mmu_pt_alloc_map_lock(pd, addr);
++              if (!pt) {
++                      ret = -ENOMEM;
++                      goto out;
++              }
++              do {
++                      pte = psb_mmu_mask_pte(start_pfn++, type);
++                      psb_mmu_set_pte(pt, addr, pte);
++                      pt->count++;
++              } while (addr += PAGE_SIZE, addr < next);
++              psb_mmu_pt_unmap_unlock(pt);
++
++      } while (addr = next, next != end);
++
++out:
++      if (pd->hw_context != -1)
++              psb_mmu_flush_ptes(pd, f_address, num_pages, 1, 1);
++
++      up_read(&pd->driver->sem);
++
++      if (pd->hw_context != -1)
++              psb_mmu_flush(pd->driver);
++
++      return ret;
++}
++
++int psb_mmu_insert_pages(struct psb_mmu_pd *pd, struct page **pages,
++                       unsigned long address, uint32_t num_pages,
++                       uint32_t desired_tile_stride,
++                       uint32_t hw_tile_stride, int type)
++{
++      struct psb_mmu_pt *pt;
++      uint32_t rows = 1;
++      uint32_t i;
++      uint32_t pte;
++      unsigned long addr;
++      unsigned long end;
++      unsigned long next;
++      unsigned long add;
++      unsigned long row_add;
++      unsigned long f_address = address;
++      int ret = 0;
++
++      if (hw_tile_stride) {
++              if (num_pages % desired_tile_stride != 0)
++                      return -EINVAL;
++              rows = num_pages / desired_tile_stride;
++      } else {
++              desired_tile_stride = num_pages;
++      }
++
++      add = desired_tile_stride << PAGE_SHIFT;
++      row_add = hw_tile_stride << PAGE_SHIFT;
++
++      down_read(&pd->driver->sem);
++
++      for (i = 0; i < rows; ++i) {
++
++              addr = address;
++              end = addr + add;
++
++              do {
++                      next = psb_pd_addr_end(addr, end);
++                      pt = psb_mmu_pt_alloc_map_lock(pd, addr);
++                      if (!pt) {
++                              ret = -ENOMEM;
++                              goto out;
++                      }
++                      do {
++                              pte =
++                                  psb_mmu_mask_pte(page_to_pfn(*pages++),
++                                                   type);
++                              psb_mmu_set_pte(pt, addr, pte);
++                              pt->count++;
++                      } while (addr += PAGE_SIZE, addr < next);
++                      psb_mmu_pt_unmap_unlock(pt);
++
++              } while (addr = next, next != end);
++
++              address += row_add;
++      }
++out:
++      if (pd->hw_context != -1)
++              psb_mmu_flush_ptes(pd, f_address, num_pages,
++                                 desired_tile_stride, hw_tile_stride);
++
++      up_read(&pd->driver->sem);
++
++      if (pd->hw_context != -1)
++              psb_mmu_flush(pd->driver);
++
++      return ret;
++}
++
++void psb_mmu_enable_requestor(struct psb_mmu_driver *driver, uint32_t mask)
++{
++      mask &= _PSB_MMU_ER_MASK;
++      psb_iowrite32(driver,
++                    psb_ioread32(driver, PSB_CR_BIF_CTRL) & ~mask,
++                    PSB_CR_BIF_CTRL);
++      (void) psb_ioread32(driver, PSB_CR_BIF_CTRL);
++}
++
++void psb_mmu_disable_requestor(struct psb_mmu_driver *driver,
++                             uint32_t mask)
++{
++      mask &= _PSB_MMU_ER_MASK;
++      psb_iowrite32(driver, psb_ioread32(driver, PSB_CR_BIF_CTRL) | mask,
++                    PSB_CR_BIF_CTRL);
++      (void) psb_ioread32(driver, PSB_CR_BIF_CTRL);
++}
++
++int psb_mmu_virtual_to_pfn(struct psb_mmu_pd *pd, uint32_t virtual,
++                         unsigned long *pfn)
++{
++      int ret;
++      struct psb_mmu_pt *pt;
++      uint32_t tmp;
++      spinlock_t *lock = &pd->driver->lock;
++
++      down_read(&pd->driver->sem);
++      pt = psb_mmu_pt_map_lock(pd, virtual);
++      if (!pt) {
++              uint32_t *v;
++
++              spin_lock(lock);
++              v = kmap_atomic(pd->p, KM_USER0);
++              tmp = v[psb_mmu_pd_index(virtual)];
++              kunmap_atomic(v, KM_USER0);
++              spin_unlock(lock);
++
++              if (tmp != pd->invalid_pde || !(tmp & PSB_PTE_VALID) ||
++                  !(pd->invalid_pte & PSB_PTE_VALID)) {
++                      ret = -EINVAL;
++                      goto out;
++              }
++              ret = 0;
++              *pfn = pd->invalid_pte >> PAGE_SHIFT;
++              goto out;
++      }
++      tmp = pt->v[psb_mmu_pt_index(virtual)];
++      if (!(tmp & PSB_PTE_VALID)) {
++              ret = -EINVAL;
++      } else {
++              ret = 0;
++              *pfn = tmp >> PAGE_SHIFT;
++      }
++      psb_mmu_pt_unmap_unlock(pt);
++out:
++      up_read(&pd->driver->sem);
++      return ret;
++}
++
++void psb_mmu_test(struct psb_mmu_driver *driver, uint32_t offset)
++{
++      struct page *p;
++      unsigned long pfn;
++      int ret = 0;
++      struct psb_mmu_pd *pd;
++      uint32_t *v;
++      uint32_t *vmmu;
++
++      pd = driver->default_pd;
++      if (!pd)
++              printk(KERN_WARNING "Could not get default pd\n");
++
++
++      p = alloc_page(GFP_DMA32);
++
++      if (!p) {
++              printk(KERN_WARNING "Failed allocating page\n");
++              return;
++      }
++
++      v = kmap(p);
++      memset(v, 0x67, PAGE_SIZE);
++
++      pfn = (offset >> PAGE_SHIFT);
++
++      ret = psb_mmu_insert_pages(pd, &p, pfn << PAGE_SHIFT, 1, 0, 0, 0);
++      if (ret) {
++              printk(KERN_WARNING "Failed inserting mmu page\n");
++              goto out_err1;
++      }
++
++      /* Ioremap the page through the GART aperture */
++
++      vmmu = ioremap(pfn << PAGE_SHIFT, PAGE_SIZE);
++      if (!vmmu) {
++              printk(KERN_WARNING "Failed ioremapping page\n");
++              goto out_err2;
++      }
++
++      /* Read from the page with mmu disabled. */
++      printk(KERN_INFO "Page first dword is 0x%08x\n", ioread32(vmmu));
++
++      /* Enable the mmu for host accesses and read again. */
++      psb_mmu_enable_requestor(driver, _PSB_MMU_ER_HOST);
++
++      printk(KERN_INFO "MMU Page first dword is (0x67676767) 0x%08x\n",
++             ioread32(vmmu));
++      *v = 0x15243705;
++      printk(KERN_INFO "MMU Page new dword is (0x15243705) 0x%08x\n",
++             ioread32(vmmu));
++      iowrite32(0x16243355, vmmu);
++      (void) ioread32(vmmu);
++      printk(KERN_INFO "Page new dword is (0x16243355) 0x%08x\n", *v);
++
++      printk(KERN_INFO "Int stat is 0x%08x\n",
++             psb_ioread32(driver, PSB_CR_BIF_INT_STAT));
++      printk(KERN_INFO "Fault is 0x%08x\n",
++             psb_ioread32(driver, PSB_CR_BIF_FAULT));
++
++      /* Disable MMU for host accesses and clear page fault register */
++      psb_mmu_disable_requestor(driver, _PSB_MMU_ER_HOST);
++      iounmap(vmmu);
++out_err2:
++      psb_mmu_remove_pages(pd, pfn << PAGE_SHIFT, 1, 0, 0);
++out_err1:
++      kunmap(p);
++      __free_page(p);
++}
+diff --git a/drivers/gpu/drm/psb/psb_msvdx.c b/drivers/gpu/drm/psb/psb_msvdx.c
+new file mode 100644
+index 0000000..6930880
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_msvdx.c
+@@ -0,0 +1,855 @@
++/**
++ * file psb_msvdx.c
++ * MSVDX I/O operations and IRQ handling
++ *
++ */
++
++/**************************************************************************
++ *
++ * Copyright (c) 2007 Intel Corporation, Hillsboro, OR, USA
++ * Copyright (c) Imagination Technologies Limited, UK
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++#include <drm/drmP.h>
++#include <drm/drm_os_linux.h>
++#include "psb_drv.h"
++#include "psb_drm.h"
++#include "psb_msvdx.h"
++#include "lnc_topaz.h"
++#include "psb_powermgmt.h"
++#include <linux/io.h>
++#include <linux/delay.h>
++
++#ifndef list_first_entry
++#define list_first_entry(ptr, type, member) \
++      list_entry((ptr)->next, type, member)
++#endif
++
++
++static int psb_msvdx_send(struct drm_device *dev, void *cmd,
++                        unsigned long cmd_size);
++
++static int psb_msvdx_dequeue_send(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct psb_msvdx_cmd_queue *msvdx_cmd = NULL;
++      int ret = 0;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      if (list_empty(&msvdx_priv->msvdx_queue)) {
++              PSB_DEBUG_GENERAL("MSVDXQUE: msvdx list empty.\n");
++              msvdx_priv->msvdx_busy = 0;
++              return -EINVAL;
++      }
++      msvdx_cmd = list_first_entry(&msvdx_priv->msvdx_queue,
++                              struct psb_msvdx_cmd_queue, head);
++      PSB_DEBUG_GENERAL("MSVDXQUE: Queue has id %08x\n", msvdx_cmd->sequence);
++      ret = psb_msvdx_send(dev, msvdx_cmd->cmd, msvdx_cmd->cmd_size);
++      if (ret) {
++              DRM_ERROR("MSVDXQUE: psb_msvdx_send failed\n");
++              ret = -EINVAL;
++      }
++      list_del(&msvdx_cmd->head);
++      kfree(msvdx_cmd->cmd);
++      kfree(msvdx_cmd);
++
++      return ret;
++}
++
++static int psb_msvdx_map_command(struct drm_device *dev,
++                        struct ttm_buffer_object *cmd_buffer,
++                        unsigned long cmd_offset, unsigned long cmd_size,
++                        void **msvdx_cmd, uint32_t sequence, int copy_cmd)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      int ret = 0;
++      unsigned long cmd_page_offset = cmd_offset & ~PAGE_MASK;
++      unsigned long cmd_size_remaining;
++      struct ttm_bo_kmap_obj cmd_kmap;
++      void *cmd, *tmp, *cmd_start;
++      bool is_iomem;
++
++      /* command buffers may not exceed page boundary */
++      if (cmd_size + cmd_page_offset > PAGE_SIZE)
++              return -EINVAL;
++
++      ret = ttm_bo_kmap(cmd_buffer, cmd_offset >> PAGE_SHIFT, 1, &cmd_kmap);
++      if (ret) {
++              DRM_ERROR("MSVDXQUE:ret:%d\n", ret);
++              return ret;
++      }
++
++      cmd_start = (void *)ttm_kmap_obj_virtual(&cmd_kmap, &is_iomem)
++              + cmd_page_offset;
++      cmd = cmd_start;
++      cmd_size_remaining = cmd_size;
++
++      while (cmd_size_remaining > 0) {
++              uint32_t cur_cmd_size = MEMIO_READ_FIELD(cmd, FWRK_GENMSG_SIZE);
++              uint32_t cur_cmd_id = MEMIO_READ_FIELD(cmd, FWRK_GENMSG_ID);
++              uint32_t mmu_ptd = 0, tmp = 0;
++
++              PSB_DEBUG_GENERAL("cmd start at %08x cur_cmd_size = %d"
++                              " cur_cmd_id = %02x fence = %08x\n",
++                      (uint32_t) cmd, cur_cmd_size, cur_cmd_id, sequence);
++              if ((cur_cmd_size % sizeof(uint32_t))
++                  || (cur_cmd_size > cmd_size_remaining)) {
++                      ret = -EINVAL;
++                      DRM_ERROR("MSVDX: ret:%d\n", ret);
++                      goto out;
++              }
++
++              switch (cur_cmd_id) {
++              case VA_MSGID_RENDER:
++                      /* Fence ID */
++                      MEMIO_WRITE_FIELD(cmd, FW_VA_RENDER_FENCE_VALUE,
++                                        sequence);
++                      mmu_ptd = psb_get_default_pd_addr(dev_priv->mmu);
++                      tmp = atomic_cmpxchg(&dev_priv->msvdx_mmu_invaldc,
++                                      1, 0);
++                      if (tmp == 1) {
++                              mmu_ptd |= 1;
++                              PSB_DEBUG_GENERAL("MSVDX:Set MMU invalidate\n");
++                      }
++
++                      /* PTD */
++                      MEMIO_WRITE_FIELD(cmd, FW_VA_RENDER_MMUPTD, mmu_ptd);
++                      break;
++
++              default:
++                      /* Msg not supported */
++                      ret = -EINVAL;
++                      PSB_DEBUG_GENERAL("MSVDX: ret:%d\n", ret);
++                      goto out;
++              }
++
++              cmd += cur_cmd_size;
++              cmd_size_remaining -= cur_cmd_size;
++      }
++
++      if (copy_cmd) {
++              PSB_DEBUG_GENERAL("MSVDXQUE:copying command\n");
++
++              tmp = kzalloc(cmd_size, GFP_KERNEL);
++              if (tmp == NULL) {
++                      ret = -ENOMEM;
++                      DRM_ERROR("MSVDX: fail to callc,ret=:%d\n", ret);
++                      goto out;
++              }
++              memcpy(tmp, cmd_start, cmd_size);
++              *msvdx_cmd = tmp;
++      } else {
++              PSB_DEBUG_GENERAL("MSVDXQUE:did NOT copy command\n");
++              ret = psb_msvdx_send(dev, cmd_start, cmd_size);
++              if (ret) {
++                      DRM_ERROR("MSVDXQUE: psb_msvdx_send failed\n");
++                      ret = -EINVAL;
++              }
++      }
++
++out:
++      ttm_bo_kunmap(&cmd_kmap);
++
++      return ret;
++}
++
++int psb_submit_video_cmdbuf(struct drm_device *dev,
++                          struct ttm_buffer_object *cmd_buffer,
++                          unsigned long cmd_offset, unsigned long cmd_size,
++                          struct ttm_fence_object *fence)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      uint32_t sequence =  dev_priv->sequence[PSB_ENGINE_VIDEO];
++      unsigned long irq_flags;
++      int ret = 0;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      psb_schedule_watchdog(dev_priv);
++
++      spin_lock_irqsave(&msvdx_priv->msvdx_lock, irq_flags);
++      if (msvdx_priv->msvdx_needs_reset) {
++              spin_unlock_irqrestore(&msvdx_priv->msvdx_lock, irq_flags);
++              PSB_DEBUG_GENERAL("MSVDX: will reset msvdx\n");
++              if (psb_msvdx_reset(dev_priv)) {
++                      ret = -EBUSY;
++                      DRM_ERROR("MSVDX: Reset failed\n");
++                      return ret;
++              }
++              msvdx_priv->msvdx_needs_reset = 0;
++              msvdx_priv->msvdx_busy = 0;
++
++              psb_msvdx_init(dev);
++              spin_lock_irqsave(&msvdx_priv->msvdx_lock, irq_flags);
++      }
++
++      if (!msvdx_priv->msvdx_fw_loaded) {
++              spin_unlock_irqrestore(&msvdx_priv->msvdx_lock, irq_flags);
++              PSB_DEBUG_GENERAL("MSVDX:reload FW to MTX\n");
++
++              ret = psb_setup_fw(dev);
++              if (ret) {
++                      DRM_ERROR("MSVDX:fail to load FW\n");
++                      /* FIXME: find a proper return value */
++                      return -EFAULT;
++              }
++              msvdx_priv->msvdx_fw_loaded = 1;
++
++              PSB_DEBUG_GENERAL("MSVDX: load firmware successfully\n");
++              spin_lock_irqsave(&msvdx_priv->msvdx_lock, irq_flags);
++      }
++
++      if (!msvdx_priv->msvdx_busy) {
++              msvdx_priv->msvdx_busy = 1;
++              spin_unlock_irqrestore(&msvdx_priv->msvdx_lock, irq_flags);
++              PSB_DEBUG_GENERAL("MSVDX: commit command to HW,seq=0x%08x\n",
++                              sequence);
++              ret = psb_msvdx_map_command(dev, cmd_buffer, cmd_offset,
++                                      cmd_size, NULL, sequence, 0);
++              if (ret) {
++                      DRM_ERROR("MSVDXQUE: Failed to extract cmd\n");
++                      return ret;
++              }
++      } else {
++              struct psb_msvdx_cmd_queue *msvdx_cmd;
++              void *cmd = NULL;
++
++              spin_unlock_irqrestore(&msvdx_priv->msvdx_lock, irq_flags);
++              /* queue the command to be sent when the h/w is ready */
++              PSB_DEBUG_GENERAL("MSVDXQUE: queueing sequence:%08x..\n",
++                              sequence);
++              msvdx_cmd = kzalloc(sizeof(struct psb_msvdx_cmd_queue),
++                              GFP_KERNEL);
++              if (msvdx_cmd == NULL) {
++                      DRM_ERROR("MSVDXQUE: Out of memory...\n");
++                      return -ENOMEM;
++              }
++
++              ret = psb_msvdx_map_command(dev, cmd_buffer, cmd_offset,
++                                      cmd_size, &cmd, sequence, 1);
++              if (ret) {
++                      DRM_ERROR("MSVDXQUE: Failed to extract cmd\n");
++                      kfree(msvdx_cmd
++                              );
++                      return ret;
++              }
++              msvdx_cmd->cmd = cmd;
++              msvdx_cmd->cmd_size = cmd_size;
++              msvdx_cmd->sequence = sequence;
++              spin_lock_irqsave(&msvdx_priv->msvdx_lock, irq_flags);
++              list_add_tail(&msvdx_cmd->head, &msvdx_priv->msvdx_queue);
++              if (!msvdx_priv->msvdx_busy) {
++                      msvdx_priv->msvdx_busy = 1;
++                      PSB_DEBUG_GENERAL("MSVDXQUE: Need immediate dequeue\n");
++                      psb_msvdx_dequeue_send(dev);
++              }
++              spin_unlock_irqrestore(&msvdx_priv->msvdx_lock, irq_flags);
++      }
++
++      return ret;
++}
++
++int psb_cmdbuf_video(struct drm_file *priv,
++                   struct list_head *validate_list,
++                   uint32_t fence_type,
++                   struct drm_psb_cmdbuf_arg *arg,
++                   struct ttm_buffer_object *cmd_buffer,
++                   struct psb_ttm_fence_rep *fence_arg)
++{
++      struct drm_device *dev = priv->minor->dev;
++      struct ttm_fence_object *fence;
++      int ret;
++
++      /*
++       * Check this. Doesn't seem right. Have fencing done AFTER command
++       * submission and make sure drm_psb_idle idles the MSVDX completely.
++       */
++      ret =
++              psb_submit_video_cmdbuf(dev, cmd_buffer, arg->cmdbuf_offset,
++                                      arg->cmdbuf_size, NULL);
++      if (ret)
++              return ret;
++
++
++      /* DRM_ERROR("Intel: Fix video fencing!!\n"); */
++      psb_fence_or_sync(priv, PSB_ENGINE_VIDEO, fence_type,
++                        arg->fence_flags, validate_list, fence_arg,
++                      &fence);
++
++      ttm_fence_object_unref(&fence);
++      mutex_lock(&cmd_buffer->mutex);
++      if (cmd_buffer->sync_obj != NULL)
++              ttm_fence_sync_obj_unref(&cmd_buffer->sync_obj);
++      mutex_unlock(&cmd_buffer->mutex);
++
++      return 0;
++}
++
++
++static int psb_msvdx_send(struct drm_device *dev, void *cmd,
++                      unsigned long cmd_size)
++{
++      int ret = 0;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      while (cmd_size > 0) {
++              uint32_t cur_cmd_size = MEMIO_READ_FIELD(cmd, FWRK_GENMSG_SIZE);
++              if (cur_cmd_size > cmd_size) {
++                      ret = -EINVAL;
++                      DRM_ERROR("MSVDX:cmd_size %lu cur_cmd_size %lu\n",
++                              cmd_size, (unsigned long)cur_cmd_size);
++                      goto out;
++              }
++
++              /* Send the message to h/w */
++              ret = psb_mtx_send(dev_priv, cmd);
++              if (ret) {
++                      PSB_DEBUG_GENERAL("MSVDX: ret:%d\n", ret);
++                      goto out;
++              }
++              cmd += cur_cmd_size;
++              cmd_size -= cur_cmd_size;
++      }
++
++out:
++      PSB_DEBUG_GENERAL("MSVDX: ret:%d\n", ret);
++      return ret;
++}
++
++int psb_mtx_send(struct drm_psb_private *dev_priv, const void *msg)
++{
++      static uint32_t pad_msg[FWRK_PADMSG_SIZE];
++      const uint32_t *p_msg = (uint32_t *) msg;
++      uint32_t msg_num, words_free, ridx, widx;
++      int ret = 0;
++
++      PSB_DEBUG_GENERAL("MSVDX: psb_mtx_send\n");
++
++      /* we need clocks enabled before we touch VEC local ram */
++      PSB_WMSVDX32(clk_enable_all, MSVDX_MAN_CLK_ENABLE);
++
++      msg_num = (MEMIO_READ_FIELD(msg, FWRK_GENMSG_SIZE) + 3) / 4;
++      if (msg_num > NUM_WORDS_MTX_BUF) {
++              ret = -EINVAL;
++              DRM_ERROR("MSVDX: message exceed maximum,ret:%d\n", ret);
++              goto out;
++      }
++
++      ridx = PSB_RMSVDX32(MSVDX_COMMS_TO_MTX_RD_INDEX);
++      widx = PSB_RMSVDX32(MSVDX_COMMS_TO_MTX_WRT_INDEX);
++
++      /* message would wrap, need to send a pad message */
++      if (widx + msg_num > NUM_WORDS_MTX_BUF) {
++              /* Shouldn't happen for a PAD message itself */
++              BUG_ON(MEMIO_READ_FIELD(msg, FWRK_GENMSG_ID)
++                      == FWRK_MSGID_PADDING);
++
++              /* if the read pointer is at zero then we must wait for it to
++               * change otherwise the write pointer will equal the read
++               * pointer,which should only happen when the buffer is empty
++               *
++               * This will only happens if we try to overfill the queue,
++               * queue management should make
++               * sure this never happens in the first place.
++               */
++              BUG_ON(0 == ridx);
++              if (0 == ridx) {
++                      ret = -EINVAL;
++                      DRM_ERROR("MSVDX: RIndex=0, ret:%d\n", ret);
++                      goto out;
++              }
++
++              /* Send a pad message */
++              MEMIO_WRITE_FIELD(pad_msg, FWRK_GENMSG_SIZE,
++                                (NUM_WORDS_MTX_BUF - widx) << 2);
++              MEMIO_WRITE_FIELD(pad_msg, FWRK_GENMSG_ID,
++                                FWRK_MSGID_PADDING);
++              psb_mtx_send(dev_priv, pad_msg);
++              widx = PSB_RMSVDX32(MSVDX_COMMS_TO_MTX_WRT_INDEX);
++      }
++
++      if (widx >= ridx)
++              words_free = NUM_WORDS_MTX_BUF - (widx - ridx);
++      else
++              words_free = ridx - widx;
++
++      BUG_ON(msg_num > words_free);
++      if (msg_num > words_free) {
++              ret = -EINVAL;
++              DRM_ERROR("MSVDX: msg_num > words_free, ret:%d\n", ret);
++              goto out;
++      }
++      while (msg_num > 0) {
++              PSB_WMSVDX32(*p_msg++, MSVDX_COMMS_TO_MTX_BUF + (widx << 2));
++              msg_num--;
++              widx++;
++              if (NUM_WORDS_MTX_BUF == widx)
++                      widx = 0;
++      }
++      PSB_WMSVDX32(widx, MSVDX_COMMS_TO_MTX_WRT_INDEX);
++
++      /* Make sure clocks are enabled before we kick */
++      PSB_WMSVDX32(clk_enable_all, MSVDX_MAN_CLK_ENABLE);
++
++      PSB_WMSVDX32(clk_enable_all, MSVDX_MAN_CLK_ENABLE);
++
++      /* signal an interrupt to let the mtx know there is a new message */
++      PSB_WMSVDX32(1, MSVDX_MTX_KICKI);
++
++out:
++      return ret;
++}
++
++/*
++ * MSVDX MTX interrupt
++ */
++static void psb_msvdx_mtx_interrupt(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      static uint32_t buf[128]; /* message buffer */
++      uint32_t ridx, widx;
++      uint32_t num, ofs; /* message num and offset */
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      PSB_DEBUG_GENERAL("MSVDX:Got a MSVDX MTX interrupt\n");
++
++      /* Are clocks enabled  - If not enable before
++       * attempting to read from VLR
++       */
++      if (PSB_RMSVDX32(MSVDX_MAN_CLK_ENABLE) != (clk_enable_all)) {
++              PSB_DEBUG_GENERAL("MSVDX:Clocks disabled when Interupt set\n");
++              PSB_WMSVDX32(clk_enable_all, MSVDX_MAN_CLK_ENABLE);
++      }
++
++loop: /* just for coding style check */
++      ridx = PSB_RMSVDX32(MSVDX_COMMS_TO_HOST_RD_INDEX);
++      widx = PSB_RMSVDX32(MSVDX_COMMS_TO_HOST_WRT_INDEX);
++
++      /* Get out of here if nothing */
++      if (ridx == widx)
++              goto done;
++
++      ofs = 0;
++      buf[ofs] = PSB_RMSVDX32(MSVDX_COMMS_TO_HOST_BUF + (ridx << 2));
++
++      /* round to nearest word */
++      num = (MEMIO_READ_FIELD(buf, FWRK_GENMSG_SIZE) + 3) / 4;
++
++      /* ASSERT(num <= sizeof(buf) / sizeof(uint32_t)); */
++
++      if (++ridx >= NUM_WORDS_HOST_BUF)
++              ridx = 0;
++
++      for (ofs++; ofs < num; ofs++) {
++              buf[ofs] = PSB_RMSVDX32(MSVDX_COMMS_TO_HOST_BUF + (ridx << 2));
++
++              if (++ridx >= NUM_WORDS_HOST_BUF)
++                      ridx = 0;
++      }
++
++      /* Update the Read index */
++      PSB_WMSVDX32(ridx, MSVDX_COMMS_TO_HOST_RD_INDEX);
++
++      if (msvdx_priv->msvdx_needs_reset)
++              goto loop;
++
++      switch (MEMIO_READ_FIELD(buf, FWRK_GENMSG_ID)) {
++      case VA_MSGID_CMD_HW_PANIC:
++      case VA_MSGID_CMD_FAILED: {
++              uint32_t fence = MEMIO_READ_FIELD(buf,
++                                      FW_VA_CMD_FAILED_FENCE_VALUE);
++              uint32_t fault = MEMIO_READ_FIELD(buf,
++                                      FW_VA_CMD_FAILED_IRQSTATUS);
++              uint32_t msg_id = MEMIO_READ_FIELD(buf, FWRK_GENMSG_ID);
++              uint32_t diff = 0;
++
++              (void) fault;
++              if (msg_id == VA_MSGID_CMD_HW_PANIC)
++                      PSB_DEBUG_GENERAL("MSVDX: VA_MSGID_CMD_HW_PANIC:"
++                                      "Fault detected"
++                                      " - Fence: %08x, Status: %08x"
++                                      " - resetting and ignoring error\n",
++                                      fence, fault);
++              else
++                      PSB_DEBUG_GENERAL("MSVDX: VA_MSGID_CMD_FAILED:"
++                                      "Fault detected"
++                                      " - Fence: %08x, Status: %08x"
++                                      " - resetting and ignoring error\n",
++                                      fence, fault);
++
++              msvdx_priv->msvdx_needs_reset = 1;
++
++              if (msg_id == VA_MSGID_CMD_HW_PANIC) {
++                      diff = msvdx_priv->msvdx_current_sequence
++                              - dev_priv->sequence[PSB_ENGINE_VIDEO];
++
++                      if (diff > 0x0FFFFFFF)
++                              msvdx_priv->msvdx_current_sequence++;
++
++                      PSB_DEBUG_GENERAL("MSVDX: Fence ID missing, "
++                                      "assuming %08x\n",
++                                      msvdx_priv->msvdx_current_sequence);
++              } else {
++                      msvdx_priv->msvdx_current_sequence = fence;
++              }
++
++              psb_fence_error(dev, PSB_ENGINE_VIDEO,
++                              msvdx_priv->msvdx_current_sequence,
++                              _PSB_FENCE_TYPE_EXE, DRM_CMD_FAILED);
++
++              /* Flush the command queue */
++              psb_msvdx_flush_cmd_queue(dev);
++
++              goto done;
++      }
++      case VA_MSGID_CMD_COMPLETED: {
++              uint32_t fence = MEMIO_READ_FIELD(buf,
++                                      FW_VA_CMD_COMPLETED_FENCE_VALUE);
++              uint32_t flags = MEMIO_READ_FIELD(buf,
++                                              FW_VA_CMD_COMPLETED_FLAGS);
++
++              PSB_DEBUG_GENERAL("MSVDX:VA_MSGID_CMD_COMPLETED: "
++                              "FenceID: %08x, flags: 0x%x\n",
++                              fence, flags);
++
++              msvdx_priv->msvdx_current_sequence = fence;
++
++              psb_fence_handler(dev, PSB_ENGINE_VIDEO);
++
++              if (flags & FW_VA_RENDER_HOST_INT) {
++                      /*Now send the next command from the msvdx cmd queue */
++                      psb_msvdx_dequeue_send(dev);
++                      goto done;
++              }
++
++              break;
++      }
++      case VA_MSGID_CMD_COMPLETED_BATCH: {
++              uint32_t fence = MEMIO_READ_FIELD(buf,
++                                      FW_VA_CMD_COMPLETED_FENCE_VALUE);
++              uint32_t tickcnt = MEMIO_READ_FIELD(buf,
++                                      FW_VA_CMD_COMPLETED_NO_TICKS);
++              (void)tickcnt;
++              /* we have the fence value in the message */
++              PSB_DEBUG_GENERAL("MSVDX:VA_MSGID_CMD_COMPLETED_BATCH:"
++                      " FenceID: %08x, TickCount: %08x\n",
++                      fence, tickcnt);
++              msvdx_priv->msvdx_current_sequence = fence;
++
++              break;
++      }
++      case VA_MSGID_ACK:
++              PSB_DEBUG_GENERAL("MSVDX: VA_MSGID_ACK\n");
++              break;
++
++      case VA_MSGID_TEST1:
++              PSB_DEBUG_GENERAL("MSVDX: VA_MSGID_TEST1\n");
++              break;
++
++      case VA_MSGID_TEST2:
++              PSB_DEBUG_GENERAL("MSVDX: VA_MSGID_TEST2\n");
++              break;
++              /* Don't need to do anything with these messages */
++
++      case VA_MSGID_DEBLOCK_REQUIRED: {
++              uint32_t ctxid = MEMIO_READ_FIELD(buf,
++                                      FW_VA_DEBLOCK_REQUIRED_CONTEXT);
++              (void) ctxid;
++              /* The BE we now be locked. */
++              /* Unblock rendec by reading the mtx2mtx end of slice */
++              (void) PSB_RMSVDX32(MSVDX_RENDEC_READ_DATA);
++
++              PSB_DEBUG_GENERAL("MSVDX: VA_MSGID_DEBLOCK_REQUIRED"
++                              " Context=%08x\n", ctxid);
++              goto done;
++      }
++      default:
++              DRM_ERROR("ERROR: msvdx Unknown message from MTX \n");
++              goto done;
++      }
++
++done:
++      /* we get a frame/slice done, try to save some power*/
++      if (drm_msvdx_pmpolicy == PSB_PMPOLICY_POWERDOWN)
++              schedule_delayed_work(&dev_priv->scheduler.msvdx_suspend_wq, 0);
++
++      DRM_MEMORYBARRIER();    /* TBD check this... */
++}
++
++
++/*
++ * MSVDX interrupt.
++ */
++void psb_msvdx_interrupt(struct drm_device *dev,
++                              uint32_t msvdx_stat)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      if (msvdx_stat & MSVDX_INTERRUPT_STATUS_CR_MMU_FAULT_IRQ_MASK) {
++              /*Ideally we should we should never get to this */
++              PSB_DEBUG_IRQ("MSVDX:MMU Fault:0x%x fence2_irq_on=%d\n",
++                            msvdx_stat, dev_priv->fence2_irq_on);
++
++              /* Pause MMU */
++              PSB_WMSVDX32(MSVDX_MMU_CONTROL0_CR_MMU_PAUSE_MASK,
++                           MSVDX_MMU_CONTROL0);
++              DRM_WRITEMEMORYBARRIER();
++
++              /* Clear this interupt bit only */
++              PSB_WMSVDX32(MSVDX_INTERRUPT_STATUS_CR_MMU_FAULT_IRQ_MASK,
++                           MSVDX_INTERRUPT_CLEAR);
++              PSB_RMSVDX32(MSVDX_INTERRUPT_CLEAR);
++              DRM_READMEMORYBARRIER();
++
++              msvdx_priv->msvdx_needs_reset = 1;
++      } else if (msvdx_stat & MSVDX_INTERRUPT_STATUS_CR_MTX_IRQ_MASK) {
++              PSB_DEBUG_IRQ
++                  ("MSVDX: msvdx_stat: 0x%x fence2_irq_on=%d(MTX)\n",
++                   msvdx_stat, dev_priv->fence2_irq_on);
++
++              /* Clear all interupt bits */
++              PSB_WMSVDX32(0xffff, MSVDX_INTERRUPT_CLEAR);
++              PSB_RMSVDX32(MSVDX_INTERRUPT_CLEAR);
++              DRM_READMEMORYBARRIER();
++
++              psb_msvdx_mtx_interrupt(dev);
++      }
++}
++
++
++void psb_msvdx_lockup(struct drm_psb_private *dev_priv,
++              int *msvdx_lockup, int *msvdx_idle)
++{
++      int tmp;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      *msvdx_lockup = 0;
++      *msvdx_idle = 1;
++
++#if 0
++      PSB_DEBUG_GENERAL("MSVDXTimer: current_sequence:%d "
++                      "last_sequence:%d and last_submitted_sequence :%d\n",
++                      msvdx_priv->msvdx_current_sequence,
++                      msvdx_priv->msvdx_last_sequence,
++                      dev_priv->sequence[PSB_ENGINE_VIDEO]);
++#endif
++
++      tmp = msvdx_priv->msvdx_current_sequence -
++              dev_priv->sequence[PSB_ENGINE_VIDEO];
++
++      if (tmp > 0x0FFFFFFF) {
++              if (msvdx_priv->msvdx_current_sequence ==
++                      msvdx_priv->msvdx_last_sequence) {
++                      DRM_ERROR("MSVDXTimer:locked-up for sequence:%d\n",
++                              msvdx_priv->msvdx_current_sequence);
++                      *msvdx_lockup = 1;
++              } else {
++                      PSB_DEBUG_GENERAL("MSVDXTimer: "
++                                      "msvdx responded fine so far\n");
++                      msvdx_priv->msvdx_last_sequence =
++                              msvdx_priv->msvdx_current_sequence;
++                      *msvdx_idle = 0;
++              }
++      }
++}
++
++int psb_check_msvdx_idle(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++      uint32_t fs_status, ccb_roff, ccb_woff;
++
++      if (msvdx_priv->msvdx_busy) {
++              PSB_DEBUG_PM("MSVDX: psb_check_msvdx_idle returns busy\n");
++              return -EBUSY;
++      }
++
++      /* check that clocks are enabled before reading VLR */
++      if (PSB_RMSVDX32(MSVDX_MAN_CLK_ENABLE) != (clk_enable_all))
++              PSB_WMSVDX32(clk_enable_all, MSVDX_MAN_CLK_ENABLE);
++
++      fs_status = PSB_RMSVDX32(MSVDX_COMMS_FW_STATUS);
++      ccb_roff = PSB_RMSVDX32(MSVDX_COMMS_TO_MTX_RD_INDEX);
++      ccb_woff = PSB_RMSVDX32(MSVDX_COMMS_TO_MTX_WRT_INDEX);
++
++      /* If the firmware says the hardware is idle
++       * and the CCB is empty then we can say it is IDLE
++       */
++      if ((fs_status & MSVDX_FW_STATUS_HW_IDLE) && (ccb_roff == ccb_woff)) {
++              PSB_DEBUG_PM("MSVDXIDLE: FW indicate IDLE\n");
++              return 0;
++      }
++
++      return -EBUSY; /* not checkout fence, CCB, etc here*/
++}
++
++int psb_wait_msvdx_idle(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct ttm_fence_device *fdev = &dev_priv->fdev;
++      struct ttm_fence_class_manager *fc =
++              &fdev->fence_class[PSB_ENGINE_VIDEO];
++      struct ttm_fence_object *fence, *next;
++      int signaled = 0;
++      unsigned long _end = jiffies + 5 * DRM_HZ;
++      int ret = 0;
++
++      /* Ensure that all pending IRQs are serviced, */
++
++      /*
++       * Save the last MSVDX fence in dev_priv instead!!!
++       * Need to be fc->write_locked while accessing a fence from the ring.
++       */
++      list_for_each_entry_safe(fence, next, &fc->ring, ring) {
++              do {
++                      signaled = ttm_fence_object_signaled(fence,
++                                                      _PSB_FENCE_TYPE_EXE);
++                      if (signaled) {
++                              PSB_DEBUG_PM("MSVDXIDLE:wait_fence success\n");
++                              break;
++                      }
++                      if (time_after_eq(jiffies, _end)) {
++                              PSB_DEBUG_PM("MSVDXIDLE: fence 0x%x didn't get"
++                                           "signaled for 3 secs\n",
++                                           (unsigned int) fence);
++                              break;
++                      }
++                      DRM_UDELAY(1000);
++              } while (1);
++      }
++      do {
++              ret = psb_check_msvdx_idle(dev);
++              if (ret == 0) {
++                      PSB_DEBUG_PM("MSVDXIDLE: check_idle succeeded!\n");
++                      break;
++              }
++
++              if (time_after_eq(jiffies, _end)) {
++                      PSB_DEBUG_PM("MSVDXIDLE: wait HW idle time out\n");
++                      break;
++              }
++              DRM_UDELAY(1000);
++      } while (1);
++
++      return ret;
++}
++
++#if 0
++static int psb_power_gated_msvdx(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      PSB_DEBUG_PM("MSVDX: Setting clock to minimal\n");
++      PSB_WMSVDX32(clk_enable_minimal, MSVDX_MAN_CLK_ENABLE);
++
++      MSVDX_NEW_PMSTATE(dev, msvdx_priv, PSB_PMSTATE_CLOCKGATED);
++
++      return 0;
++}
++
++static int psb_power_ungated_msvdx(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      MSVDX_NEW_PMSTATE(dev, msvdx_priv, PSB_PMSTATE_POWERUP);
++
++      return 0;
++}
++#endif
++
++int lnc_video_getparam(struct drm_device *dev, void *data,
++                      struct drm_file *file_priv)
++{
++      struct drm_lnc_video_getparam_arg *arg = data;
++      int ret = 0;
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)file_priv->minor->dev->dev_private;
++#if defined(CONFIG_MRST_RAR_HANDLER)
++      struct RAR_buffer rar_buf;
++      size_t rar_status;
++#endif
++      void *rar_handler;
++      uint32_t offset = 0;
++
++      switch (arg->key) {
++      case LNC_VIDEO_GETPARAM_RAR_REGION_SIZE:
++              ret = copy_to_user((void __user *) ((unsigned long)arg->value),
++                                 &dev_priv->rar_region_size,
++                                 sizeof(dev_priv->rar_region_size));
++              break;
++      case LNC_VIDEO_GETPARAM_RAR_HANDLER_OFFSET:
++              ret = copy_from_user(&rar_handler,
++                                   (void __user *)((unsigned long)arg->arg),
++                                   sizeof(rar_handler));
++              if (ret)
++                      break;
++
++#if defined(CONFIG_MRST_RAR_HANDLER)
++              rar_buf.info.handle = rar_handler;
++              rar_buf.bus_address = dev_priv->rar_region_start;
++              rar_status = 1;
++
++              rar_status = rar_handle_to_bus(&rar_buf, 1);
++              if (rar_status != 1) {
++                      DRM_ERROR("MSVDX:rar_handle_to_bus failed\n");
++                      ret = -1;
++                      break;
++              }
++
++              offset = rar_buf.bus_address - dev_priv->rar_region_start;
++              PSB_DEBUG_GENERAL("MSVDX:RAR handler %p, bus address=0x%08x,"
++                              "RAR region=0x%08x\n", rar_handler,
++                              rar_buf.bus_address,dev_priv->rar_region_start);
++#endif
++              ret = copy_to_user((void __user *) ((unsigned long)arg->value),
++                                 &offset,
++                                 sizeof(offset));
++              break;
++      case LNC_VIDEO_FRAME_SKIP:
++              ret = lnc_video_frameskip(dev, arg->value);
++              break;
++      default:
++              ret = -EFAULT;
++              break;
++      }
++
++      if (ret)
++              return -EFAULT;
++
++      return 0;
++}
++
++inline int psb_try_power_down_msvdx(struct drm_device *dev)
++{
++      return powermgmt_suspend_islands(dev->pdev, PSB_VIDEO_DEC_ISLAND, false);
++}
+diff --git a/drivers/gpu/drm/psb/psb_msvdx.h b/drivers/gpu/drm/psb/psb_msvdx.h
+new file mode 100644
+index 0000000..8d8d8b5
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_msvdx.h
+@@ -0,0 +1,527 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2007 Intel Corporation, Hillsboro, OR, USA
++ * Copyright (c) Imagination Technologies Limited, UK
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++#ifndef _PSB_MSVDX_H_
++#define _PSB_MSVDX_H_
++
++#include "psb_drv.h"
++
++#if defined(CONFIG_MRST_RAR_HANDLER)
++#include "rar/memrar.h"
++#endif
++
++extern int drm_msvdx_pmpolicy;
++
++void psb_msvdx_interrupt(struct drm_device *dev,
++                      uint32_t msvdx_stat);
++
++int psb_msvdx_init(struct drm_device *dev);
++int psb_msvdx_uninit(struct drm_device *dev);
++int psb_msvdx_reset(struct drm_psb_private *dev_priv);
++uint32_t psb_get_default_pd_addr(struct psb_mmu_driver *driver);
++int psb_mtx_send(struct drm_psb_private *dev_priv, const void *pvMsg);
++void psb_msvdx_flush_cmd_queue(struct drm_device *dev);
++void psb_msvdx_lockup(struct drm_psb_private *dev_priv,
++              int *msvdx_lockup, int *msvdx_idle);
++int psb_setup_fw(struct drm_device *dev);
++int psb_check_msvdx_idle(struct drm_device *dev);
++int psb_wait_msvdx_idle(struct drm_device *dev);
++int psb_cmdbuf_video(struct drm_file *priv,
++              struct list_head *validate_list,
++              uint32_t fence_type,
++              struct drm_psb_cmdbuf_arg *arg,
++              struct ttm_buffer_object *cmd_buffer,
++              struct psb_ttm_fence_rep *fence_arg);
++
++/*  Non-Optimal Invalidation is not default */
++#define MSVDX_DEVICE_NODE_FLAGS_MMU_NONOPT_INV        2
++#define MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_SOFT_RESET_MASK  (0x00000100)
++
++#define FW_VA_RENDER_HOST_INT         0x00004000
++#define MSVDX_DEVICE_NODE_FLAGS_MMU_HW_INVALIDATION   0x00000020
++
++/* There is no work currently underway on the hardware */
++#define MSVDX_FW_STATUS_HW_IDLE       0x00000001
++#define MSVDX_DEVICE_NODE_FLAG_BRN23154_BLOCK_ON_FE   0x00000200
++#define MSVDX_DEVICE_NODE_FLAGS_DEFAULT_D0 \
++      (MSVDX_DEVICE_NODE_FLAGS_MMU_NONOPT_INV |                       \
++              MSVDX_DEVICE_NODE_FLAGS_MMU_HW_INVALIDATION |           \
++              MSVDX_DEVICE_NODE_FLAG_BRN23154_BLOCK_ON_FE)
++
++#define MSVDX_DEVICE_NODE_FLAGS_DEFAULT_D1 \
++      (MSVDX_DEVICE_NODE_FLAGS_MMU_HW_INVALIDATION |                  \
++              MSVDX_DEVICE_NODE_FLAG_BRN23154_BLOCK_ON_FE)
++
++#define POULSBO_D0    0x5
++#define POULSBO_D1    0x6
++#define PSB_REVID_OFFSET 0x8
++
++#define MTX_CODE_BASE         (0x80900000)
++#define MTX_DATA_BASE         (0x82880000)
++#define PC_START_ADDRESS      (0x80900000)
++
++#define MTX_CORE_CODE_MEM     (0x10)
++#define MTX_CORE_DATA_MEM     (0x18)
++
++#define MSVDX_CONTROL_CR_MSVDX_SOFT_RESET_MASK                (0x00000100)
++#define MSVDX_CONTROL_CR_MSVDX_SOFT_RESET_SHIFT               (8)
++#define MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_FE_SOFT_RESET_MASK       \
++      (0x00010000)
++#define MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_BE_SOFT_RESET_MASK       \
++      (0x00100000)
++#define MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_VEC_MEMIF_SOFT_RESET_MASK        \
++      (0x01000000)
++#define MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_VEC_RENDEC_DEC_SOFT_RESET_MASK \
++      (0x10000000)
++
++#define clk_enable_all        \
++(MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_CORE_MAN_CLK_ENABLE_MASK       | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDEB_PROCESS_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDEB_ACCESS_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDMC_MAN_CLK_ENABLE_MASK         | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VEC_ENTDEC_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VEC_ITRANS_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_MTX_MAN_CLK_ENABLE_MASK)
++
++#define clk_enable_minimal \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_CORE_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_MTX_MAN_CLK_ENABLE_MASK
++
++#define clk_enable_auto       \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDEB_PROCESS_AUTO_CLK_ENABLE_MASK       | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDEB_ACCESS_AUTO_CLK_ENABLE_MASK        | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDMC_AUTO_CLK_ENABLE_MASK               | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VEC_ENTDEC_AUTO_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VEC_ITRANS_AUTO_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_CORE_MAN_CLK_ENABLE_MASK                | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_MTX_MAN_CLK_ENABLE_MASK
++
++#define msvdx_sw_reset_all \
++(MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_SOFT_RESET_MASK |         \
++MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_FE_SOFT_RESET_MASK |       \
++MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_BE_SOFT_RESET_MASK       |               \
++MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_VEC_MEMIF_SOFT_RESET_MASK |      \
++MSVDX_CORE_CR_MSVDX_CONTROL_CR_MSVDX_VEC_RENDEC_DEC_SOFT_RESET_MASK)
++
++#define MTX_INTERNAL_REG(R_SPECIFIER , U_SPECIFIER)   \
++      (((R_SPECIFIER)<<4) | (U_SPECIFIER))
++#define MTX_PC                MTX_INTERNAL_REG(0, 5)
++
++#define RENDEC_A_SIZE (1024 * 1024)
++#define RENDEC_B_SIZE (1024 * 1024)
++
++#define MEMIO_READ_FIELD(vpMem, field)          \
++      ((uint32_t)(((*((field##_TYPE*)(((uint32_t)vpMem) + field##_OFFSET))) \
++                      & field##_MASK) >> field##_SHIFT))
++
++#define MEMIO_WRITE_FIELD(vpMem, field, value)                        \
++      (*((field##_TYPE*)(((uint32_t)vpMem) + field##_OFFSET))) =      \
++              ((*((field##_TYPE*)(((uint32_t)vpMem) + field##_OFFSET))) \
++                      & (field##_TYPE)~field##_MASK) |                \
++      (field##_TYPE)(((uint32_t)(value) << field##_SHIFT) & field##_MASK);
++
++#define MEMIO_WRITE_FIELD_LITE(vpMem, field, value)                   \
++       (*((field##_TYPE*)(((uint32_t)vpMem) + field##_OFFSET))) =     \
++      ((*((field##_TYPE*)(((uint32_t)vpMem) + field##_OFFSET))) |     \
++              (field##_TYPE)(((uint32_t)(value) << field##_SHIFT)));
++
++#define REGIO_READ_FIELD(reg_val, reg, field)                         \
++      ((reg_val & reg##_##field##_MASK) >> reg##_##field##_SHIFT)
++
++#define REGIO_WRITE_FIELD(reg_val, reg, field, value)                 \
++      (reg_val) =                                                     \
++      ((reg_val) & ~(reg##_##field##_MASK)) |                         \
++              (((value) << (reg##_##field##_SHIFT)) & (reg##_##field##_MASK));
++
++#define REGIO_WRITE_FIELD_LITE(reg_val, reg, field, value)            \
++      (reg_val) =                                                     \
++      ((reg_val) | ((value) << (reg##_##field##_SHIFT)));
++
++#define MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_CORE_MAN_CLK_ENABLE_MASK        \
++      (0x00000001)
++#define MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDEB_PROCESS_MAN_CLK_ENABLE_MASK \
++      (0x00000002)
++#define MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDEB_ACCESS_MAN_CLK_ENABLE_MASK \
++      (0x00000004)
++#define MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDMC_MAN_CLK_ENABLE_MASK \
++                      (0x00000008)
++#define MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VEC_ENTDEC_MAN_CLK_ENABLE_MASK \
++      (0x00000010)
++#define MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VEC_ITRANS_MAN_CLK_ENABLE_MASK \
++      (0x00000020)
++#define MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_MTX_MAN_CLK_ENABLE_MASK \
++      (0x00000040)
++
++#define clk_enable_all        \
++      (MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_CORE_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDEB_PROCESS_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDEB_ACCESS_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VDMC_MAN_CLK_ENABLE_MASK         | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VEC_ENTDEC_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_VEC_ITRANS_MAN_CLK_ENABLE_MASK | \
++MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_MTX_MAN_CLK_ENABLE_MASK)
++
++#define clk_enable_minimal \
++      MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_CORE_MAN_CLK_ENABLE_MASK | \
++      MSVDX_CORE_CR_MSVDX_MAN_CLK_ENABLE_CR_MTX_MAN_CLK_ENABLE_MASK
++
++/* MTX registers */
++#define MSVDX_MTX_ENABLE              (0x0000)
++#define MSVDX_MTX_KICKI                       (0x0088)
++#define MSVDX_MTX_REGISTER_READ_WRITE_REQUEST (0x00FC)
++#define MSVDX_MTX_REGISTER_READ_WRITE_DATA    (0x00F8)
++#define MSVDX_MTX_RAM_ACCESS_DATA_TRANSFER    (0x0104)
++#define MSVDX_MTX_RAM_ACCESS_CONTROL  (0x0108)
++#define MSVDX_MTX_RAM_ACCESS_STATUS   (0x010C)
++#define MSVDX_MTX_SOFT_RESET          (0x0200)
++
++/* MSVDX registers */
++#define MSVDX_CONTROL                 (0x0600)
++#define MSVDX_INTERRUPT_CLEAR         (0x060C)
++#define MSVDX_INTERRUPT_STATUS                (0x0608)
++#define MSVDX_HOST_INTERRUPT_ENABLE   (0x0610)
++#define MSVDX_MMU_CONTROL0            (0x0680)
++#define MSVDX_MTX_RAM_BANK            (0x06F0)
++#define MSVDX_MAN_CLK_ENABLE          (0x0620)
++
++/* RENDEC registers */
++#define MSVDX_RENDEC_CONTROL0         (0x0868)
++#define MSVDX_RENDEC_CONTROL1         (0x086C)
++#define MSVDX_RENDEC_BUFFER_SIZE      (0x0870)
++#define MSVDX_RENDEC_BASE_ADDR0               (0x0874)
++#define MSVDX_RENDEC_BASE_ADDR1               (0x0878)
++#define MSVDX_RENDEC_READ_DATA                (0x0898)
++#define MSVDX_RENDEC_CONTEXT0         (0x0950)
++#define MSVDX_RENDEC_CONTEXT1         (0x0954)
++#define MSVDX_RENDEC_CONTEXT2         (0x0958)
++#define MSVDX_RENDEC_CONTEXT3         (0x095C)
++#define MSVDX_RENDEC_CONTEXT4         (0x0960)
++#define MSVDX_RENDEC_CONTEXT5         (0x0964)
++
++/*
++ * This defines the MSVDX communication buffer
++ */
++#define MSVDX_COMMS_SIGNATURE_VALUE   (0xA5A5A5A5)    /*!< Signature value */
++/*!< Host buffer size (in 32-bit words) */
++#define NUM_WORDS_HOST_BUF            (100)
++/*!< MTX buffer size (in 32-bit words) */
++#define NUM_WORDS_MTX_BUF             (100)
++
++/* There is no work currently underway on the hardware */
++#define MSVDX_FW_STATUS_HW_IDLE       0x00000001
++
++#define MSVDX_COMMS_AREA_ADDR (0x02cc0)
++
++#define MSVDX_COMMS_OFFSET_FLAGS              (MSVDX_COMMS_AREA_ADDR + 0x18)
++#define       MSVDX_COMMS_MSG_COUNTER                 (MSVDX_COMMS_AREA_ADDR - 0x04)
++#define MSVDX_COMMS_FW_STATUS                 (MSVDX_COMMS_AREA_ADDR - 0x10)
++#define       MSVDX_COMMS_SIGNATURE                   (MSVDX_COMMS_AREA_ADDR + 0x00)
++#define       MSVDX_COMMS_TO_HOST_BUF_SIZE            (MSVDX_COMMS_AREA_ADDR + 0x04)
++#define MSVDX_COMMS_TO_HOST_RD_INDEX          (MSVDX_COMMS_AREA_ADDR + 0x08)
++#define MSVDX_COMMS_TO_HOST_WRT_INDEX         (MSVDX_COMMS_AREA_ADDR + 0x0C)
++#define MSVDX_COMMS_TO_MTX_BUF_SIZE           (MSVDX_COMMS_AREA_ADDR + 0x10)
++#define MSVDX_COMMS_TO_MTX_RD_INDEX           (MSVDX_COMMS_AREA_ADDR + 0x14)
++#define MSVDX_COMMS_TO_MTX_CB_RD_INDEX                (MSVDX_COMMS_AREA_ADDR + 0x18)
++#define MSVDX_COMMS_TO_MTX_WRT_INDEX          (MSVDX_COMMS_AREA_ADDR + 0x1C)
++#define MSVDX_COMMS_TO_HOST_BUF                       (MSVDX_COMMS_AREA_ADDR + 0x20)
++#define MSVDX_COMMS_TO_MTX_BUF        \
++      (MSVDX_COMMS_TO_HOST_BUF + (NUM_WORDS_HOST_BUF << 2))
++
++#define MSVDX_COMMS_AREA_END  \
++      (MSVDX_COMMS_TO_MTX_BUF + (NUM_WORDS_HOST_BUF << 2))
++
++#if (MSVDX_COMMS_AREA_END != 0x03000)
++#error
++#endif
++
++#define MSVDX_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK (0x80000000)
++#define MSVDX_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_SHIFT        (31)
++
++#define MSVDX_MTX_REGISTER_READ_WRITE_REQUEST_MTX_RNW_MASK    (0x00010000)
++#define MSVDX_MTX_REGISTER_READ_WRITE_REQUEST_MTX_RNW_SHIFT   (16)
++
++#define MSVDX_MTX_RAM_ACCESS_CONTROL_MTX_MCMID_MASK           (0x0FF00000)
++#define MSVDX_MTX_RAM_ACCESS_CONTROL_MTX_MCMID_SHIFT          (20)
++
++#define MSVDX_MTX_RAM_ACCESS_CONTROL_MTX_MCM_ADDR_MASK        (0x000FFFFC)
++#define MSVDX_MTX_RAM_ACCESS_CONTROL_MTX_MCM_ADDR_SHIFT       (2)
++
++#define MSVDX_MTX_RAM_ACCESS_CONTROL_MTX_MCMAI_MASK   (0x00000002)
++#define MSVDX_MTX_RAM_ACCESS_CONTROL_MTX_MCMAI_SHIFT  (1)
++
++#define MSVDX_MTX_RAM_ACCESS_CONTROL_MTX_MCMR_MASK    (0x00000001)
++#define MSVDX_MTX_RAM_ACCESS_CONTROL_MTX_MCMR_SHIFT   (0)
++
++#define MSVDX_MTX_SOFT_RESET_MTX_RESET_MASK           (0x00000001)
++#define MSVDX_MTX_SOFT_RESET_MTX_RESET_SHIFT          (0)
++
++#define MSVDX_MTX_ENABLE_MTX_ENABLE_MASK              (0x00000001)
++#define MSVDX_MTX_ENABLE_MTX_ENABLE_SHIFT             (0)
++
++#define MSVDX_CONTROL_CR_MSVDX_SOFT_RESET_MASK                (0x00000100)
++#define MSVDX_CONTROL_CR_MSVDX_SOFT_RESET_SHIFT               (8)
++
++#define MSVDX_INTERRUPT_STATUS_CR_MMU_FAULT_IRQ_MASK  (0x00000F00)
++#define MSVDX_INTERRUPT_STATUS_CR_MMU_FAULT_IRQ_SHIFT (8)
++
++#define MSVDX_INTERRUPT_STATUS_CR_MTX_IRQ_MASK                (0x00004000)
++#define MSVDX_INTERRUPT_STATUS_CR_MTX_IRQ_SHIFT               (14)
++
++#define MSVDX_MMU_CONTROL0_CR_MMU_PAUSE_MASK                  (0x00000002)
++#define MSVDX_MMU_CONTROL0_CR_MMU_PAUSE_SHIFT                 (1)
++
++#define MSVDX_MTX_RAM_BANK_CR_MTX_RAM_BANK_SIZE_MASK          (0x000F0000)
++#define MSVDX_MTX_RAM_BANK_CR_MTX_RAM_BANK_SIZE_SHIFT         (16)
++
++#define MSVDX_RENDEC_BUFFER_SIZE_RENDEC_BUFFER_SIZE0_MASK     (0x0000FFFF)
++#define MSVDX_RENDEC_BUFFER_SIZE_RENDEC_BUFFER_SIZE0_SHIFT    (0)
++
++#define MSVDX_RENDEC_BUFFER_SIZE_RENDEC_BUFFER_SIZE1_MASK     (0xFFFF0000)
++#define MSVDX_RENDEC_BUFFER_SIZE_RENDEC_BUFFER_SIZE1_SHIFT    (16)
++
++#define MSVDX_RENDEC_CONTROL1_RENDEC_DECODE_START_SIZE_MASK   (0x000000FF)
++#define MSVDX_RENDEC_CONTROL1_RENDEC_DECODE_START_SIZE_SHIFT  (0)
++
++#define MSVDX_RENDEC_CONTROL1_RENDEC_BURST_SIZE_W_MASK                (0x000C0000)
++#define MSVDX_RENDEC_CONTROL1_RENDEC_BURST_SIZE_W_SHIFT               (18)
++
++#define MSVDX_RENDEC_CONTROL1_RENDEC_BURST_SIZE_R_MASK                (0x00030000)
++#define MSVDX_RENDEC_CONTROL1_RENDEC_BURST_SIZE_R_SHIFT               (16)
++
++#define MSVDX_RENDEC_CONTROL1_RENDEC_EXTERNAL_MEMORY_MASK     (0x01000000)
++#define MSVDX_RENDEC_CONTROL1_RENDEC_EXTERNAL_MEMORY_SHIFT    (24)
++
++#define MSVDX_RENDEC_CONTROL0_RENDEC_INITIALISE_MASK          (0x00000001)
++#define MSVDX_RENDEC_CONTROL0_RENDEC_INITIALISE_SHIFT         (0)
++
++/* Start of parser specific Host->MTX messages. */
++#define       FWRK_MSGID_START_PSR_HOSTMTX_MSG        (0x80)
++
++/* Start of parser specific MTX->Host messages. */
++#define       FWRK_MSGID_START_PSR_MTXHOST_MSG        (0xC0)
++
++#define FWRK_MSGID_PADDING                    (0)
++
++#define FWRK_GENMSG_SIZE_TYPE         uint8_t
++#define FWRK_GENMSG_SIZE_MASK         (0xFF)
++#define FWRK_GENMSG_SIZE_SHIFT                (0)
++#define FWRK_GENMSG_SIZE_OFFSET               (0x0000)
++#define FWRK_GENMSG_ID_TYPE           uint8_t
++#define FWRK_GENMSG_ID_MASK           (0xFF)
++#define FWRK_GENMSG_ID_SHIFT          (0)
++#define FWRK_GENMSG_ID_OFFSET         (0x0001)
++#define FWRK_PADMSG_SIZE              (2)
++
++/* This type defines the framework specified message ids */
++enum {
++      /* ! Sent by the DXVA driver on the host to the mtx firmware.
++       */
++      VA_MSGID_INIT = FWRK_MSGID_START_PSR_HOSTMTX_MSG,
++      VA_MSGID_RENDER,
++      VA_MSGID_DEBLOCK,
++      VA_MSGID_BUBBLE,
++
++      /* Test Messages */
++      VA_MSGID_TEST1,
++      VA_MSGID_TEST2,
++
++      /*! Sent by the mtx firmware to itself.
++       */
++      VA_MSGID_RENDER_MC_INTERRUPT,
++
++      /*! Sent by the DXVA firmware on the MTX to the host.
++       */
++      VA_MSGID_CMD_COMPLETED = FWRK_MSGID_START_PSR_MTXHOST_MSG,
++      VA_MSGID_CMD_COMPLETED_BATCH,
++      VA_MSGID_DEBLOCK_REQUIRED,
++      VA_MSGID_TEST_RESPONCE,
++      VA_MSGID_ACK,
++
++      VA_MSGID_CMD_FAILED,
++      VA_MSGID_CMD_UNSUPPORTED,
++      VA_MSGID_CMD_HW_PANIC,
++};
++
++/* MSVDX private structure */
++struct msvdx_private {
++      int msvdx_needs_reset;
++
++      unsigned int pmstate;
++
++      struct sysfs_dirent *sysfs_pmstate;
++
++      uint32_t msvdx_current_sequence;
++      uint32_t msvdx_last_sequence;
++
++      /*
++       *MSVDX Rendec Memory
++       */
++      struct ttm_buffer_object *ccb0;
++      uint32_t base_addr0;
++      struct ttm_buffer_object *ccb1;
++      uint32_t base_addr1;
++
++      /*
++       *msvdx command queue
++       */
++      spinlock_t msvdx_lock;
++      struct mutex msvdx_mutex;
++      struct list_head msvdx_queue;
++      int msvdx_busy;
++      int msvdx_fw_loaded;
++      void *msvdx_fw;
++      int msvdx_fw_size;
++};
++
++/* MSVDX Firmware interface */
++#define FW_VA_INIT_SIZE                       (8)
++#define FW_VA_DEBUG_TEST2_SIZE                (4)
++
++/* FW_VA_DEBUG_TEST2     MSG_SIZE */
++#define FW_VA_DEBUG_TEST2_MSG_SIZE_TYPE               uint8_t
++#define FW_VA_DEBUG_TEST2_MSG_SIZE_MASK               (0xFF)
++#define FW_VA_DEBUG_TEST2_MSG_SIZE_OFFSET     (0x0000)
++#define FW_VA_DEBUG_TEST2_MSG_SIZE_SHIFT      (0)
++
++/* FW_VA_DEBUG_TEST2     ID */
++#define FW_VA_DEBUG_TEST2_ID_TYPE             uint8_t
++#define FW_VA_DEBUG_TEST2_ID_MASK             (0xFF)
++#define FW_VA_DEBUG_TEST2_ID_OFFSET           (0x0001)
++#define FW_VA_DEBUG_TEST2_ID_SHIFT            (0)
++
++/* FW_VA_CMD_FAILED     FENCE_VALUE */
++#define FW_VA_CMD_FAILED_FENCE_VALUE_TYPE     uint32_t
++#define FW_VA_CMD_FAILED_FENCE_VALUE_MASK     (0xFFFFFFFF)
++#define FW_VA_CMD_FAILED_FENCE_VALUE_OFFSET   (0x0004)
++#define FW_VA_CMD_FAILED_FENCE_VALUE_SHIFT    (0)
++
++/* FW_VA_CMD_FAILED     IRQSTATUS */
++#define FW_VA_CMD_FAILED_IRQSTATUS_TYPE               uint32_t
++#define FW_VA_CMD_FAILED_IRQSTATUS_MASK               (0xFFFFFFFF)
++#define FW_VA_CMD_FAILED_IRQSTATUS_OFFSET     (0x0008)
++#define FW_VA_CMD_FAILED_IRQSTATUS_SHIFT      (0)
++
++/* FW_VA_CMD_COMPLETED     FENCE_VALUE */
++#define FW_VA_CMD_COMPLETED_FENCE_VALUE_TYPE  uint32_t
++#define FW_VA_CMD_COMPLETED_FENCE_VALUE_MASK  (0xFFFFFFFF)
++#define FW_VA_CMD_COMPLETED_FENCE_VALUE_OFFSET        (0x0004)
++#define FW_VA_CMD_COMPLETED_FENCE_VALUE_SHIFT (0)
++
++/* FW_VA_CMD_COMPLETED     FLAGS */
++#define FW_VA_CMD_COMPLETED_FLAGS_ALIGNMENT           (4)
++#define FW_VA_CMD_COMPLETED_FLAGS_TYPE                uint32_t
++#define FW_VA_CMD_COMPLETED_FLAGS_MASK                (0xFFFFFFFF)
++#define FW_VA_CMD_COMPLETED_FLAGS_LSBMASK             (0xFFFFFFFF)
++#define FW_VA_CMD_COMPLETED_FLAGS_OFFSET              (0x0008)
++#define FW_VA_CMD_COMPLETED_FLAGS_SHIFT               (0)
++
++/* FW_VA_CMD_COMPLETED     NO_TICKS */
++#define FW_VA_CMD_COMPLETED_NO_TICKS_TYPE     uint16_t
++#define FW_VA_CMD_COMPLETED_NO_TICKS_MASK     (0xFFFF)
++#define FW_VA_CMD_COMPLETED_NO_TICKS_OFFSET   (0x0002)
++#define FW_VA_CMD_COMPLETED_NO_TICKS_SHIFT    (0)
++
++/* FW_VA_DEBLOCK_REQUIRED     CONTEXT */
++#define FW_VA_DEBLOCK_REQUIRED_CONTEXT_TYPE   uint32_t
++#define FW_VA_DEBLOCK_REQUIRED_CONTEXT_MASK   (0xFFFFFFFF)
++#define FW_VA_DEBLOCK_REQUIRED_CONTEXT_OFFSET (0x0004)
++#define FW_VA_DEBLOCK_REQUIRED_CONTEXT_SHIFT  (0)
++
++/* FW_VA_INIT     GLOBAL_PTD */
++#define FW_VA_INIT_GLOBAL_PTD_TYPE            uint32_t
++#define FW_VA_INIT_GLOBAL_PTD_MASK            (0xFFFFFFFF)
++#define FW_VA_INIT_GLOBAL_PTD_OFFSET          (0x0004)
++#define FW_VA_INIT_GLOBAL_PTD_SHIFT           (0)
++
++/* FW_VA_RENDER     FENCE_VALUE */
++#define FW_VA_RENDER_FENCE_VALUE_TYPE         uint32_t
++#define FW_VA_RENDER_FENCE_VALUE_MASK         (0xFFFFFFFF)
++#define FW_VA_RENDER_FENCE_VALUE_OFFSET               (0x0010)
++#define FW_VA_RENDER_FENCE_VALUE_SHIFT                (0)
++
++/* FW_VA_RENDER     MMUPTD */
++#define FW_VA_RENDER_MMUPTD_TYPE              uint32_t
++#define FW_VA_RENDER_MMUPTD_MASK              (0xFFFFFFFF)
++#define FW_VA_RENDER_MMUPTD_OFFSET            (0x0004)
++#define FW_VA_RENDER_MMUPTD_SHIFT             (0)
++
++/* FW_VA_RENDER     BUFFER_ADDRESS */
++#define FW_VA_RENDER_BUFFER_ADDRESS_TYPE      uint32_t
++#define FW_VA_RENDER_BUFFER_ADDRESS_MASK      (0xFFFFFFFF)
++#define FW_VA_RENDER_BUFFER_ADDRESS_OFFSET    (0x0008)
++#define FW_VA_RENDER_BUFFER_ADDRESS_SHIFT     (0)
++
++/* FW_VA_RENDER     BUFFER_SIZE */
++#define FW_VA_RENDER_BUFFER_SIZE_TYPE           uint16_t
++#define FW_VA_RENDER_BUFFER_SIZE_MASK           (0x0FFF)
++#define FW_VA_RENDER_BUFFER_SIZE_OFFSET         (0x0002)
++#define FW_VA_RENDER_BUFFER_SIZE_SHIFT          (0)
++
++
++static inline void psb_msvdx_clearirq(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      unsigned long mtx_int = 0;
++
++      PSB_DEBUG_IRQ("MSVDX: clear IRQ\n");
++
++      /* Clear MTX interrupt */
++      REGIO_WRITE_FIELD_LITE(mtx_int, MSVDX_INTERRUPT_STATUS, CR_MTX_IRQ,
++                             1);
++      PSB_WMSVDX32(mtx_int, MSVDX_INTERRUPT_CLEAR);
++}
++
++
++static inline void psb_msvdx_disableirq(struct drm_device *dev)
++{
++      /* nothing */
++}
++
++
++static inline void psb_msvdx_enableirq(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      unsigned long enables = 0;
++
++      PSB_DEBUG_IRQ("MSVDX: enable MSVDX MTX IRQ\n");
++      REGIO_WRITE_FIELD_LITE(enables, MSVDX_INTERRUPT_STATUS, CR_MTX_IRQ,
++                      1);
++      PSB_WMSVDX32(enables, MSVDX_HOST_INTERRUPT_ENABLE);
++}
++
++#define MSVDX_NEW_PMSTATE(drm_dev, msvdx_priv, new_state)             \
++do {                                                                  \
++      msvdx_priv->pmstate = new_state;                                \
++      sysfs_notify_dirent(msvdx_priv->sysfs_pmstate);                 \
++      PSB_DEBUG_PM("MSVDX: %s\n",                                     \
++              (new_state == PSB_PMSTATE_POWERUP) ? "powerup"          \
++              : ((new_state == PSB_PMSTATE_POWERDOWN) ? "powerdown"   \
++                      : "clockgated"));                               \
++} while (0)
++
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_msvdxinit.c b/drivers/gpu/drm/psb/psb_msvdxinit.c
+new file mode 100644
+index 0000000..49c5041
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_msvdxinit.c
+@@ -0,0 +1,747 @@
++/**
++ * file psb_msvdxinit.c
++ * MSVDX initialization and mtx-firmware upload
++ *
++ */
++
++/**************************************************************************
++ *
++ * Copyright (c) 2007 Intel Corporation, Hillsboro, OR, USA
++ * Copyright (c) Imagination Technologies Limited, UK
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++#include <drm/drmP.h>
++#include <drm/drm.h>
++#include "psb_drv.h"
++#include "psb_msvdx.h"
++#include <linux/firmware.h>
++
++#define MSVDX_REG (dev_priv->msvdx_reg)
++uint8_t psb_rev_id;
++/*MSVDX FW header*/
++struct msvdx_fw {
++      uint32_t ver;
++      uint32_t text_size;
++      uint32_t data_size;
++      uint32_t data_location;
++};
++
++int psb_wait_for_register(struct drm_psb_private *dev_priv,
++                        uint32_t offset, uint32_t value, uint32_t enable)
++{
++      uint32_t tmp;
++      uint32_t poll_cnt = 10000;
++      while (poll_cnt) {
++              tmp = PSB_RMSVDX32(offset);
++              if (value == (tmp & enable))    /* All the bits are reset   */
++                      return 0;       /* So exit                      */
++
++              /* Wait a bit */
++              DRM_UDELAY(1000);
++              poll_cnt--;
++      }
++      DRM_ERROR("MSVDX: Timeout while waiting for register %08x:"
++                " expecting %08x (mask %08x), got %08x\n",
++                offset, value, enable, tmp);
++
++      return 1;
++}
++
++int psb_poll_mtx_irq(struct drm_psb_private *dev_priv)
++{
++      int ret = 0;
++      uint32_t mtx_int = 0;
++
++      REGIO_WRITE_FIELD_LITE(mtx_int, MSVDX_INTERRUPT_STATUS, CR_MTX_IRQ,
++                             1);
++
++      ret = psb_wait_for_register(dev_priv, MSVDX_INTERRUPT_STATUS,
++                                  /* Required value */
++                                  mtx_int,
++                                  /* Enabled bits */
++                                  mtx_int);
++
++      if (ret) {
++              DRM_ERROR("MSVDX: Error Mtx did not return"
++                        " int within a resonable time\n");
++              return ret;
++      }
++
++      PSB_DEBUG_IRQ("MSVDX: Got MTX Int\n");
++
++      /* Got it so clear the bit */
++      PSB_WMSVDX32(mtx_int, MSVDX_INTERRUPT_CLEAR);
++
++      return ret;
++}
++
++void psb_write_mtx_core_reg(struct drm_psb_private *dev_priv,
++                          const uint32_t core_reg, const uint32_t val)
++{
++      uint32_t reg = 0;
++
++      /* Put data in MTX_RW_DATA */
++      PSB_WMSVDX32(val, MSVDX_MTX_REGISTER_READ_WRITE_DATA);
++
++      /* DREADY is set to 0 and request a write */
++      reg = core_reg;
++      REGIO_WRITE_FIELD_LITE(reg, MSVDX_MTX_REGISTER_READ_WRITE_REQUEST,
++                             MTX_RNW, 0);
++      REGIO_WRITE_FIELD_LITE(reg, MSVDX_MTX_REGISTER_READ_WRITE_REQUEST,
++                             MTX_DREADY, 0);
++      PSB_WMSVDX32(reg, MSVDX_MTX_REGISTER_READ_WRITE_REQUEST);
++
++      psb_wait_for_register(dev_priv,
++                      MSVDX_MTX_REGISTER_READ_WRITE_REQUEST,
++                      MSVDX_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK,
++                      MSVDX_MTX_REGISTER_READ_WRITE_REQUEST_MTX_DREADY_MASK);
++}
++
++void psb_upload_fw(struct drm_psb_private *dev_priv,
++                 const uint32_t data_mem, uint32_t ram_bank_size,
++                 uint32_t address, const unsigned int words,
++                 const uint32_t * const data)
++{
++      uint32_t loop, ctrl, ram_id, addr, cur_bank = (uint32_t) ~0;
++      uint32_t access_ctrl;
++
++      /* Save the access control register... */
++      access_ctrl = PSB_RMSVDX32(MSVDX_MTX_RAM_ACCESS_CONTROL);
++
++      /* Wait for MCMSTAT to become be idle 1 */
++      psb_wait_for_register(dev_priv, MSVDX_MTX_RAM_ACCESS_STATUS,
++                            1,        /* Required Value */
++                            0xffffffff /* Enables */);
++
++      for (loop = 0; loop < words; loop++) {
++              ram_id = data_mem + (address / ram_bank_size);
++              if (ram_id != cur_bank) {
++                      addr = address >> 2;
++                      ctrl = 0;
++                      REGIO_WRITE_FIELD_LITE(ctrl,
++                                             MSVDX_MTX_RAM_ACCESS_CONTROL,
++                                             MTX_MCMID, ram_id);
++                      REGIO_WRITE_FIELD_LITE(ctrl,
++                                             MSVDX_MTX_RAM_ACCESS_CONTROL,
++                                             MTX_MCM_ADDR, addr);
++                      REGIO_WRITE_FIELD_LITE(ctrl,
++                                             MSVDX_MTX_RAM_ACCESS_CONTROL,
++                                             MTX_MCMAI, 1);
++                      PSB_WMSVDX32(ctrl, MSVDX_MTX_RAM_ACCESS_CONTROL);
++                      cur_bank = ram_id;
++              }
++              address += 4;
++
++              PSB_WMSVDX32(data[loop],
++                           MSVDX_MTX_RAM_ACCESS_DATA_TRANSFER);
++
++              /* Wait for MCMSTAT to become be idle 1 */
++              psb_wait_for_register(dev_priv, MSVDX_MTX_RAM_ACCESS_STATUS,
++                                    1,        /* Required Value */
++                                    0xffffffff /* Enables */);
++      }
++      PSB_DEBUG_GENERAL("MSVDX: Upload done\n");
++
++      /* Restore the access control register... */
++      PSB_WMSVDX32(access_ctrl, MSVDX_MTX_RAM_ACCESS_CONTROL);
++}
++
++static int psb_verify_fw(struct drm_psb_private *dev_priv,
++                       const uint32_t ram_bank_size,
++                       const uint32_t data_mem, uint32_t address,
++                       const uint32_t words, const uint32_t * const data)
++{
++      uint32_t loop, ctrl, ram_id, addr, cur_bank = (uint32_t) ~0;
++      uint32_t access_ctrl;
++      int ret = 0;
++
++      /* Save the access control register... */
++      access_ctrl = PSB_RMSVDX32(MSVDX_MTX_RAM_ACCESS_CONTROL);
++
++      /* Wait for MCMSTAT to become be idle 1 */
++      psb_wait_for_register(dev_priv, MSVDX_MTX_RAM_ACCESS_STATUS,
++                            1,        /* Required Value */
++                            0xffffffff /* Enables */);
++
++      for (loop = 0; loop < words; loop++) {
++              uint32_t tmp;
++              ram_id = data_mem + (address / ram_bank_size);
++
++              if (ram_id != cur_bank) {
++                      addr = address >> 2;
++                      ctrl = 0;
++                      REGIO_WRITE_FIELD_LITE(ctrl,
++                                             MSVDX_MTX_RAM_ACCESS_CONTROL,
++                                             MTX_MCMID, ram_id);
++                      REGIO_WRITE_FIELD_LITE(ctrl,
++                                             MSVDX_MTX_RAM_ACCESS_CONTROL,
++                                             MTX_MCM_ADDR, addr);
++                      REGIO_WRITE_FIELD_LITE(ctrl,
++                                             MSVDX_MTX_RAM_ACCESS_CONTROL,
++                                             MTX_MCMAI, 1);
++                      REGIO_WRITE_FIELD_LITE(ctrl,
++                                             MSVDX_MTX_RAM_ACCESS_CONTROL,
++                                             MTX_MCMR, 1);
++
++                      PSB_WMSVDX32(ctrl, MSVDX_MTX_RAM_ACCESS_CONTROL);
++
++                      cur_bank = ram_id;
++              }
++              address += 4;
++
++              /* Wait for MCMSTAT to become be idle 1 */
++              psb_wait_for_register(dev_priv, MSVDX_MTX_RAM_ACCESS_STATUS,
++                                    1,        /* Required Value */
++                                    0xffffffff /* Enables */);
++
++              tmp = PSB_RMSVDX32(MSVDX_MTX_RAM_ACCESS_DATA_TRANSFER);
++              if (data[loop] != tmp) {
++                      DRM_ERROR("psb: Firmware validation fails"
++                                " at index=%08x\n", loop);
++                      ret = 1;
++                      break;
++              }
++      }
++
++      /* Restore the access control register... */
++      PSB_WMSVDX32(access_ctrl, MSVDX_MTX_RAM_ACCESS_CONTROL);
++
++      return ret;
++}
++
++static uint32_t *msvdx_get_fw(struct drm_device *dev,
++                            const struct firmware **raw, uint8_t *name)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      int rc, fw_size;
++      int *ptr = NULL;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      rc = request_firmware(raw, name, &dev->pdev->dev);
++      if (rc < 0) {
++              DRM_ERROR("MSVDX: %s request_firmware failed: Reason %d\n",
++                        name, rc);
++              return NULL;
++      }
++
++      if ((*raw)->size < sizeof(struct msvdx_fw)) {
++              DRM_ERROR("MSVDX: %s is is not correct size(%zd)\n",
++                        name, (*raw)->size);
++              return NULL;
++      }
++
++      ptr = (int *) ((*raw))->data;
++
++      if (!ptr) {
++              DRM_ERROR("MSVDX: Failed to load %s\n", name);
++              return NULL;
++      }
++
++      /* another sanity check... */
++      fw_size = sizeof(struct msvdx_fw) +
++          sizeof(uint32_t) * ((struct msvdx_fw *) ptr)->text_size +
++          sizeof(uint32_t) * ((struct msvdx_fw *) ptr)->data_size;
++      if ((*raw)->size != fw_size) {
++              DRM_ERROR("MSVDX: %s is is not correct size(%zd)\n",
++                        name, (*raw)->size);
++              return NULL;
++      }
++      msvdx_priv->msvdx_fw = kzalloc(fw_size, GFP_KERNEL);
++      if (msvdx_priv->msvdx_fw == NULL)
++              DRM_ERROR("MSVDX: allocate FW buffer failed\n");
++      else {
++              memcpy(msvdx_priv->msvdx_fw, ptr, fw_size);
++              msvdx_priv->msvdx_fw_size = fw_size;
++      }
++
++      PSB_DEBUG_GENERAL("MSVDX: releasing firmware resouces\n");
++      release_firmware(*raw);
++
++      return msvdx_priv->msvdx_fw;
++}
++
++int psb_setup_fw(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      int ret = 0;
++
++      uint32_t ram_bank_size;
++      struct msvdx_fw *fw;
++      uint32_t *fw_ptr = NULL;
++      uint32_t *text_ptr = NULL;
++      uint32_t *data_ptr = NULL;
++      const struct firmware *raw = NULL;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      /* todo : Assert the clock is on - if not turn it on to upload code */
++      PSB_DEBUG_GENERAL("MSVDX: psb_setup_fw\n");
++      PSB_WMSVDX32(clk_enable_all, MSVDX_MAN_CLK_ENABLE);
++
++      /* Reset MTX */
++      PSB_WMSVDX32(MSVDX_MTX_SOFT_RESET_MTX_RESET_MASK,
++                   MSVDX_MTX_SOFT_RESET);
++
++      /* Initialses Communication controll area to 0 */
++      if (psb_rev_id >= POULSBO_D1) {
++              PSB_DEBUG_GENERAL("MSVDX: Detected Poulsbo D1"
++                                " or later revision.\n");
++              PSB_WMSVDX32(MSVDX_DEVICE_NODE_FLAGS_DEFAULT_D1,
++                           MSVDX_COMMS_OFFSET_FLAGS);
++      } else {
++              PSB_DEBUG_GENERAL("MSVDX: Detected Poulsbo D0"
++                                " or earlier revision.\n");
++              PSB_WMSVDX32(MSVDX_DEVICE_NODE_FLAGS_DEFAULT_D0,
++                           MSVDX_COMMS_OFFSET_FLAGS);
++      }
++
++      PSB_WMSVDX32(0, MSVDX_COMMS_MSG_COUNTER);
++      PSB_WMSVDX32(0, MSVDX_COMMS_SIGNATURE);
++      PSB_WMSVDX32(0, MSVDX_COMMS_TO_HOST_RD_INDEX);
++      PSB_WMSVDX32(0, MSVDX_COMMS_TO_HOST_WRT_INDEX);
++      PSB_WMSVDX32(0, MSVDX_COMMS_TO_MTX_RD_INDEX);
++      PSB_WMSVDX32(0, MSVDX_COMMS_TO_MTX_WRT_INDEX);
++      PSB_WMSVDX32(0, MSVDX_COMMS_FW_STATUS);
++
++      /* read register bank size */
++      {
++              uint32_t bank_size, reg;
++              reg = PSB_RMSVDX32(MSVDX_MTX_RAM_BANK);
++              bank_size =
++                  REGIO_READ_FIELD(reg, MSVDX_MTX_RAM_BANK,
++                                   CR_MTX_RAM_BANK_SIZE);
++              ram_bank_size = (uint32_t) (1 << (bank_size + 2));
++      }
++
++      PSB_DEBUG_GENERAL("MSVDX: RAM bank size = %d bytes\n",
++                        ram_bank_size);
++
++      /* if FW already loaded from storage */
++      if (msvdx_priv->msvdx_fw)
++              fw_ptr = msvdx_priv->msvdx_fw;
++      else {
++              PSB_DEBUG_GENERAL("MSVDX:load msvdx_fw.bin by udevd\n");
++              fw_ptr = msvdx_get_fw(dev, &raw, "msvdx_fw.bin");
++      }
++
++      if (!fw_ptr) {
++              DRM_ERROR("MSVDX:load msvdx_fw.bin failed,is udevd running?\n");
++              ret = 1;
++              goto out;
++      }
++
++      fw = (struct msvdx_fw *) fw_ptr;
++      if (fw->ver != 0x02) {
++              DRM_ERROR("psb: msvdx_fw.bin firmware version mismatch,"
++                        "got version=%02x expected version=%02x\n",
++                        fw->ver, 0x02);
++              ret = 1;
++              goto out;
++      }
++
++      text_ptr =
++          (uint32_t *) ((uint8_t *) fw_ptr + sizeof(struct msvdx_fw));
++      data_ptr = text_ptr + fw->text_size;
++
++      PSB_DEBUG_GENERAL("MSVDX: Retrieved pointers for firmware\n");
++      PSB_DEBUG_GENERAL("MSVDX: text_size: %d\n", fw->text_size);
++      PSB_DEBUG_GENERAL("MSVDX: data_size: %d\n", fw->data_size);
++      PSB_DEBUG_GENERAL("MSVDX: data_location: 0x%x\n",
++                        fw->data_location);
++      PSB_DEBUG_GENERAL("MSVDX: First 4 bytes of text: 0x%x\n",
++                        *text_ptr);
++      PSB_DEBUG_GENERAL("MSVDX: First 4 bytes of data: 0x%x\n",
++                        *data_ptr);
++
++      PSB_DEBUG_GENERAL("MSVDX: Uploading firmware\n");
++      psb_upload_fw(dev_priv, MTX_CORE_CODE_MEM, ram_bank_size,
++                    PC_START_ADDRESS - MTX_CODE_BASE, fw->text_size,
++                    text_ptr);
++      psb_upload_fw(dev_priv, MTX_CORE_DATA_MEM, ram_bank_size,
++                    fw->data_location - MTX_DATA_BASE, fw->data_size,
++                    data_ptr);
++
++#if 0
++      /* todo :  Verify code upload possibly only in debug */
++      ret = psb_verify_fw(dev_priv, ram_bank_size,
++                          MTX_CORE_CODE_MEM,
++                          PC_START_ADDRESS - MTX_CODE_BASE,
++                          fw->text_size, text_ptr);
++      if (ret) {
++              /* Firmware code upload failed */
++              ret = 1;
++              goto out;
++      }
++
++      ret = psb_verify_fw(dev_priv, ram_bank_size, MTX_CORE_DATA_MEM,
++                          fw->data_location - MTX_DATA_BASE,
++                          fw->data_size, data_ptr);
++      if (ret) {
++              /* Firmware data upload failed */
++              ret = 1;
++              goto out;
++      }
++#else
++      (void)psb_verify_fw;
++#endif
++      /*      -- Set starting PC address      */
++      psb_write_mtx_core_reg(dev_priv, MTX_PC, PC_START_ADDRESS);
++
++      /*      -- Turn on the thread   */
++      PSB_WMSVDX32(MSVDX_MTX_ENABLE_MTX_ENABLE_MASK, MSVDX_MTX_ENABLE);
++
++      /* Wait for the signature value to be written back */
++      ret = psb_wait_for_register(dev_priv, MSVDX_COMMS_SIGNATURE,
++                              MSVDX_COMMS_SIGNATURE_VALUE, /*Required value*/
++                              0xffffffff /* Enabled bits */);
++      if (ret) {
++              DRM_ERROR("MSVDX: firmware fails to initialize.\n");
++              goto out;
++      }
++
++      PSB_DEBUG_GENERAL("MSVDX: MTX Initial indications OK\n");
++      PSB_DEBUG_GENERAL("MSVDX: MSVDX_COMMS_AREA_ADDR = %08x\n",
++                        MSVDX_COMMS_AREA_ADDR);
++#if 0
++
++      /* Send test message */
++      {
++              uint32_t msg_buf[FW_VA_DEBUG_TEST2_SIZE >> 2];
++
++              MEMIO_WRITE_FIELD(msg_buf, FW_VA_DEBUG_TEST2_MSG_SIZE,
++                                FW_VA_DEBUG_TEST2_SIZE);
++              MEMIO_WRITE_FIELD(msg_buf, FW_VA_DEBUG_TEST2_ID,
++                                VA_MSGID_TEST2);
++
++              ret = psb_mtx_send(dev_priv, msg_buf);
++              if (ret) {
++                      DRM_ERROR("psb: MSVDX sending fails.\n");
++                      goto out;
++              }
++
++              /* Wait for Mtx to ack this message */
++              psb_poll_mtx_irq(dev_priv);
++
++      }
++#endif
++out:
++
++      return ret;
++}
++
++
++static void psb_free_ccb(struct ttm_buffer_object **ccb)
++{
++      ttm_bo_unref(ccb);
++      *ccb = NULL;
++}
++
++/**
++ * Reset chip and disable interrupts.
++ * Return 0 success, 1 failure
++ */
++int psb_msvdx_reset(struct drm_psb_private *dev_priv)
++{
++      int ret = 0;
++
++      /* Issue software reset */
++      PSB_WMSVDX32(msvdx_sw_reset_all, MSVDX_CONTROL);
++
++      ret = psb_wait_for_register(dev_priv, MSVDX_CONTROL, 0,
++                                  MSVDX_CONTROL_CR_MSVDX_SOFT_RESET_MASK);
++
++      if (!ret) {
++              /* Clear interrupt enabled flag */
++              PSB_WMSVDX32(0, MSVDX_HOST_INTERRUPT_ENABLE);
++
++              /* Clear any pending interrupt flags */
++              PSB_WMSVDX32(0xFFFFFFFF, MSVDX_INTERRUPT_CLEAR);
++      }
++
++      /* mutex_destroy(&msvdx_priv->msvdx_mutex); */
++
++      return ret;
++}
++
++static int psb_allocate_ccb(struct drm_device *dev,
++                          struct ttm_buffer_object **ccb,
++                          uint32_t *base_addr, int size)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct ttm_bo_device *bdev = &dev_priv->bdev;
++      int ret;
++      struct ttm_bo_kmap_obj tmp_kmap;
++      bool is_iomem;
++
++      PSB_DEBUG_INIT("MSVDX: allocate CCB\n");
++
++      ret = ttm_buffer_object_create(bdev, size,
++                                     ttm_bo_type_kernel,
++                                     DRM_PSB_FLAG_MEM_KERNEL |
++                                     TTM_PL_FLAG_NO_EVICT, 0, 0, 0,
++                                     NULL, ccb);
++      if (ret) {
++              DRM_ERROR("MSVDX:failed to allocate CCB.\n");
++              *ccb = NULL;
++              return 1;
++      }
++
++      ret = ttm_bo_kmap(*ccb, 0, (*ccb)->num_pages, &tmp_kmap);
++      if (ret) {
++              PSB_DEBUG_GENERAL("ttm_bo_kmap failed ret: %d\n", ret);
++              ttm_bo_unref(ccb);
++              *ccb = NULL;
++              return 1;
++      }
++
++      memset(ttm_kmap_obj_virtual(&tmp_kmap, &is_iomem), 0,
++             RENDEC_A_SIZE);
++      ttm_bo_kunmap(&tmp_kmap);
++
++      *base_addr = (*ccb)->offset;
++      return 0;
++}
++
++static ssize_t psb_msvdx_pmstate_show(struct device *dev,
++                              struct device_attribute *attr, char *buf)
++{
++      struct drm_device *drm_dev = dev_get_drvdata(dev);
++      struct drm_psb_private *dev_priv;
++      struct msvdx_private *msvdx_priv;
++      unsigned int pmstate;
++      unsigned long flags;
++      int ret = -EINVAL;
++
++      if (drm_dev == NULL)
++              return 0;
++
++      dev_priv = drm_dev->dev_private;
++      msvdx_priv = dev_priv->msvdx_private;
++      pmstate = msvdx_priv->pmstate;
++
++      spin_lock_irqsave(&msvdx_priv->msvdx_lock, flags);
++      ret = sprintf(buf, "%s\n",
++              (pmstate == PSB_PMSTATE_POWERUP) ? "powerup"
++              : ((pmstate == PSB_PMSTATE_POWERDOWN) ? "powerdown"
++                      : "clockgated"));
++      spin_unlock_irqrestore(&msvdx_priv->msvdx_lock, flags);
++
++      return ret;
++}
++
++static DEVICE_ATTR(msvdx_pmstate, 0444, psb_msvdx_pmstate_show, NULL);
++
++
++int psb_msvdx_init(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      /* uint32_t clk_gate_ctrl = clk_enable_all; */
++      uint32_t cmd;
++      int ret;
++      struct msvdx_private *msvdx_priv;
++
++      if (!dev_priv->msvdx_private) {
++              msvdx_priv = kmalloc(sizeof(struct msvdx_private), GFP_KERNEL);
++              if (msvdx_priv == NULL)
++                      goto err_exit;
++
++              dev_priv->msvdx_private = msvdx_priv;
++              memset(msvdx_priv, 0, sizeof(struct msvdx_private));
++
++              /* get device --> drm_device --> drm_psb_private --> msvdx_priv
++               * for psb_msvdx_pmstate_show: msvdx_pmpolicy
++               * if not pci_set_drvdata, can't get drm_device from device
++               */
++              /* pci_set_drvdata(dev->pdev, dev); */
++              if (device_create_file(&dev->pdev->dev,
++                                      &dev_attr_msvdx_pmstate))
++                      DRM_ERROR("MSVDX: could not create sysfs file\n");
++              msvdx_priv->sysfs_pmstate = sysfs_get_dirent(
++                      dev->pdev->dev.kobj.sd, "msvdx_pmstate");
++      }
++
++      msvdx_priv = dev_priv->msvdx_private;
++      if (!msvdx_priv->ccb0) { /* one for the first time */
++              /* Initialize comand msvdx queueing */
++              INIT_LIST_HEAD(&msvdx_priv->msvdx_queue);
++              mutex_init(&msvdx_priv->msvdx_mutex);
++              spin_lock_init(&msvdx_priv->msvdx_lock);
++              /*figure out the stepping */
++              pci_read_config_byte(dev->pdev, PSB_REVID_OFFSET, &psb_rev_id);
++      }
++
++      msvdx_priv->msvdx_busy = 0;
++
++      /* Enable Clocks */
++      PSB_DEBUG_GENERAL("Enabling clocks\n");
++      PSB_WMSVDX32(clk_enable_all, MSVDX_MAN_CLK_ENABLE);
++
++      /* Enable MMU by removing all bypass bits */
++      PSB_WMSVDX32(0, MSVDX_MMU_CONTROL0);
++
++      /* move firmware loading to the place receiving first command buffer */
++
++      PSB_DEBUG_GENERAL("MSVDX: Setting up RENDEC,allocate CCB 0/1\n");
++      /* Allocate device virtual memory as required by rendec.... */
++      if (!msvdx_priv->ccb0) {
++              ret = psb_allocate_ccb(dev, &msvdx_priv->ccb0,
++                                     &msvdx_priv->base_addr0,
++                                     RENDEC_A_SIZE);
++              if (ret)
++                      goto err_exit;
++      }
++
++      if (!msvdx_priv->ccb1) {
++              ret = psb_allocate_ccb(dev, &msvdx_priv->ccb1,
++                                     &msvdx_priv->base_addr1,
++                                     RENDEC_B_SIZE);
++              if (ret)
++                      goto err_exit;
++      }
++
++
++      PSB_DEBUG_GENERAL("MSVDX: RENDEC A: %08x RENDEC B: %08x\n",
++                        msvdx_priv->base_addr0, msvdx_priv->base_addr1);
++
++      PSB_WMSVDX32(msvdx_priv->base_addr0, MSVDX_RENDEC_BASE_ADDR0);
++      PSB_WMSVDX32(msvdx_priv->base_addr1, MSVDX_RENDEC_BASE_ADDR1);
++
++      cmd = 0;
++      REGIO_WRITE_FIELD(cmd, MSVDX_RENDEC_BUFFER_SIZE,
++                        RENDEC_BUFFER_SIZE0, RENDEC_A_SIZE / 4096);
++      REGIO_WRITE_FIELD(cmd, MSVDX_RENDEC_BUFFER_SIZE,
++                        RENDEC_BUFFER_SIZE1, RENDEC_B_SIZE / 4096);
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_BUFFER_SIZE);
++
++      cmd = 0;
++      REGIO_WRITE_FIELD(cmd, MSVDX_RENDEC_CONTROL1,
++                        RENDEC_DECODE_START_SIZE, 0);
++      REGIO_WRITE_FIELD(cmd, MSVDX_RENDEC_CONTROL1,
++                        RENDEC_BURST_SIZE_W, 1);
++      REGIO_WRITE_FIELD(cmd, MSVDX_RENDEC_CONTROL1,
++                        RENDEC_BURST_SIZE_R, 1);
++      REGIO_WRITE_FIELD(cmd, MSVDX_RENDEC_CONTROL1,
++                        RENDEC_EXTERNAL_MEMORY, 1);
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_CONTROL1);
++
++      cmd = 0x00101010;
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_CONTEXT0);
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_CONTEXT1);
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_CONTEXT2);
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_CONTEXT3);
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_CONTEXT4);
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_CONTEXT5);
++
++      cmd = 0;
++      REGIO_WRITE_FIELD(cmd, MSVDX_RENDEC_CONTROL0, RENDEC_INITIALISE,
++                        1);
++      PSB_WMSVDX32(cmd, MSVDX_RENDEC_CONTROL0);
++
++      PSB_WMSVDX32(clk_enable_minimal, MSVDX_MAN_CLK_ENABLE);
++      PSB_DEBUG_INIT("MSVDX:defer firmware loading to the"
++                     " place when receiving user space commands\n");
++
++      msvdx_priv->msvdx_fw_loaded = 0; /* need to load firware */
++
++      psb_msvdx_clearirq(dev);
++      psb_msvdx_enableirq(dev);
++
++      if (IS_MRST(dev)) {
++              PSB_DEBUG_INIT("MSDVX:old clock gating disable = 0x%08x\n",
++                      PSB_RVDC32(PSB_MSVDX_CLOCKGATING));
++              PSB_DEBUG_INIT("MSVDX:rest MSDVX to disable clock gating\n");
++
++              PSB_WVDC32(0x000101ff, PSB_MSVDX_CLOCKGATING);
++
++              PSB_DEBUG_INIT("MSDVX:new clock gating disable = 0x%08x\n",
++                      PSB_RVDC32(PSB_MSVDX_CLOCKGATING));
++      }
++
++#if 0
++      ret = psb_setup_fw(dev);
++      if (ret)
++              goto err_exit;
++      /* Send Initialisation message to firmware */
++      if (0) {
++              uint32_t msg_init[FW_VA_INIT_SIZE >> 2];
++              MEMIO_WRITE_FIELD(msg_init, FWRK_GENMSG_SIZE,
++                                FW_VA_INIT_SIZE);
++              MEMIO_WRITE_FIELD(msg_init, FWRK_GENMSG_ID, VA_MSGID_INIT);
++
++              /* Need to set this for all but A0 */
++              MEMIO_WRITE_FIELD(msg_init, FW_VA_INIT_GLOBAL_PTD,
++                                psb_get_default_pd_addr(dev_priv->mmu));
++
++              ret = psb_mtx_send(dev_priv, msg_init);
++              if (ret)
++                      goto err_exit;
++
++              psb_poll_mtx_irq(dev_priv);
++      }
++#endif
++
++      return 0;
++
++err_exit:
++      DRM_ERROR("MSVDX: initialization failed\n");
++      if (msvdx_priv->ccb0)
++              psb_free_ccb(&msvdx_priv->ccb0);
++      if (msvdx_priv->ccb1)
++              psb_free_ccb(&msvdx_priv->ccb1);
++      kfree(dev_priv->msvdx_private);
++
++      return 1;
++}
++
++int psb_msvdx_uninit(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      /* Reset MSVDX chip */
++      psb_msvdx_reset(dev_priv);
++
++      /* PSB_WMSVDX32 (clk_enable_minimal, MSVDX_MAN_CLK_ENABLE); */
++      PSB_DEBUG_INIT("MSVDX:set the msvdx clock to 0\n");
++      PSB_WMSVDX32(0, MSVDX_MAN_CLK_ENABLE);
++
++      if (msvdx_priv->ccb0)
++              psb_free_ccb(&msvdx_priv->ccb0);
++      if (msvdx_priv->ccb1)
++              psb_free_ccb(&msvdx_priv->ccb1);
++      if (msvdx_priv->msvdx_fw)
++              kfree(msvdx_priv->msvdx_fw
++                      );
++      if (msvdx_priv) {
++              /* pci_set_drvdata(dev->pdev, NULL); */
++              device_remove_file(&dev->pdev->dev, &dev_attr_msvdx_pmstate);
++              sysfs_put(msvdx_priv->sysfs_pmstate);
++              msvdx_priv->sysfs_pmstate = NULL;
++
++              kfree(msvdx_priv);
++              dev_priv->msvdx_private = NULL;
++      }
++
++      return 0;
++}
+diff --git a/drivers/gpu/drm/psb/psb_powermgmt.c b/drivers/gpu/drm/psb/psb_powermgmt.c
+new file mode 100644
+index 0000000..c59a701
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_powermgmt.c
+@@ -0,0 +1,1146 @@
++/**************************************************************************
++ * Copyright (c) 2009, Intel Corporation.
++ * All Rights Reserved.
++
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
++ * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
++ * SOFTWARE.
++ *
++ * Authors:
++ *    Benjamin Defnet <benjamin.r.defnet@intel.com>
++ *
++ */
++#include "psb_powermgmt.h"
++#include "psb_drv.h"
++#include "psb_intel_reg.h"
++#include "psb_scene.h"
++#include "lnc_topaz.h"
++#include "psb_msvdx.h"
++
++#include <linux/mutex.h>
++
++static struct mutex g_state_change_mutex;
++static int g_hw_power_status_mask;
++static int g_pci_power_status;
++static atomic_t g_display_access_count;
++static atomic_t g_graphics_access_count;
++static atomic_t g_videoenc_access_count;
++static atomic_t g_videodec_access_count;
++static bool g_suspend_in_progress;
++static bool g_resume_in_progress;
++static int g_suspend_mask;
++static int g_resume_mask;
++static bool g_forcing_resume;
++static atomic_t g_pm_waiters;
++
++/*#define PWRMGMT_DEBUG*/
++#ifdef PWRMGMT_DEBUG
++      #define PWR_PRINT(_fmt, _arg...)        \
++              printk(KERN_INFO _fmt, ##_arg)
++#else
++      #define PWR_PRINT(_fmt, _arg...) {}
++#endif
++
++/*
++ * powermgmt_init
++ *
++ * Description: Initialize this power management module
++ */
++void powermgmt_init(void)
++{
++      mutex_init(&g_state_change_mutex);
++      g_hw_power_status_mask = PSB_ALL_ISLANDS;
++      g_pci_power_status = 1;
++      atomic_set(&g_display_access_count, 0);
++      atomic_set(&g_graphics_access_count, 0);
++      atomic_set(&g_videoenc_access_count, 0);
++      atomic_set(&g_videodec_access_count, 0);
++      atomic_set(&g_pm_waiters, 0);
++}
++
++/*
++ * powermgmt_shutdown
++ *
++ * Description: Shut down this power management module
++ */
++void powermgmt_shutdown(void)
++{
++      mutex_destroy(&g_state_change_mutex);
++}
++
++/*
++ * powermgmt_down_island_power
++ *
++ * Description: Cut power to the specified island (powergating)
++ */
++void powermgmt_down_island_power(struct drm_device *dev, int islands)
++{
++      u32 pwr_cnt = 0;
++      u32 pwr_mask = 0;
++      u32 pwr_sts;
++
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      PWR_PRINT("BEN_KERNEL_OSPM************DOWN ISLAND POWER %d\n", islands);
++
++      if (!IS_MRST(dev)) {
++              g_hw_power_status_mask &= ~islands;
++              return;
++      }
++
++      g_hw_power_status_mask &= ~islands;
++
++      if (islands & PSB_GRAPHICS_ISLAND) {
++              pwr_cnt |= PSB_PWRGT_GFX_MASK;
++              pwr_mask |= PSB_PWRGT_GFX_MASK;
++      }
++      if (islands & PSB_VIDEO_ENC_ISLAND) {
++              pwr_cnt |= PSB_PWRGT_VID_ENC_MASK;
++              pwr_mask |= PSB_PWRGT_VID_ENC_MASK;
++      }
++      if (islands & PSB_VIDEO_DEC_ISLAND) {
++              pwr_cnt |= PSB_PWRGT_VID_DEC_MASK;
++              pwr_mask |= PSB_PWRGT_VID_DEC_MASK;
++      }
++      if (pwr_cnt) {
++              pwr_cnt |= inl(dev_priv->apm_base);
++              outl(pwr_cnt, dev_priv->apm_base);
++              while (true) {
++                      pwr_sts = inl(dev_priv->apm_base + PSB_APM_STS);
++                      if ((pwr_sts & pwr_mask) == pwr_mask)
++                              break;
++                      else
++                              udelay(10);
++              }
++      }
++
++      if (islands & PSB_DISPLAY_ISLAND) {
++              pwr_mask = PSB_PWRGT_DISPLAY_MASK;
++              outl(PSB_PWRGT_DISPLAY_MASK, (dev_priv->ospm_base + PSB_PM_SSC));
++              while (true) {
++                      pwr_sts = inl(dev_priv->ospm_base + PSB_PM_SSS);
++                      if ((pwr_sts & pwr_mask) == pwr_mask)
++                              break;
++                      else
++                              udelay(10);
++              }
++      }
++}
++
++/*
++ * powermgmt_up_island_power
++ *
++ * Description: Restore power to the specified island (powergating)
++ */
++void powermgmt_up_island_power(struct drm_device *dev, int islands)
++{
++      u32 pwr_cnt;
++      u32 pwr_sts;
++      u32 pwr_mask;
++      u32 count;
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      PWR_PRINT("BEN_KERNEL_OSPM************UP ISLAND POWER %d\n", islands);
++
++      if (!IS_MRST(dev)) {
++              g_hw_power_status_mask |= islands;
++              return;
++      }
++
++      if (islands & (PSB_GRAPHICS_ISLAND | PSB_VIDEO_ENC_ISLAND |
++                     PSB_VIDEO_DEC_ISLAND)) {
++              pwr_cnt = inl(dev_priv->apm_base + PSB_APM_CMD);
++              pwr_mask = 0;
++              if (islands & PSB_GRAPHICS_ISLAND) {
++                      pwr_cnt &= ~PSB_PWRGT_GFX_MASK;
++                      pwr_mask |= PSB_PWRGT_GFX_MASK;
++              }
++              if (islands & PSB_VIDEO_ENC_ISLAND) {
++                      pwr_cnt &= ~PSB_PWRGT_VID_ENC_MASK;
++                      pwr_mask |= PSB_PWRGT_VID_ENC_MASK;
++              }
++              if (islands & PSB_VIDEO_DEC_ISLAND) {
++                      pwr_cnt &= ~PSB_PWRGT_VID_DEC_MASK;
++                      pwr_mask |= PSB_PWRGT_VID_DEC_MASK;
++              }
++
++              if (pwr_mask) {
++                      count = 5;
++                      pwr_sts = inl(dev_priv->apm_base + PSB_APM_STS);
++                      outl(pwr_cnt, dev_priv->apm_base + PSB_APM_CMD);
++                      while (true) {
++                              pwr_sts = inl(dev_priv->apm_base + PSB_APM_STS);
++                              if ((pwr_sts & pwr_mask) == 0)
++                                      break;
++                              else
++                                      udelay(10);
++                      }
++              }
++      }
++
++      if (islands & PSB_DISPLAY_ISLAND) {
++              count = 5;
++              pwr_cnt = inl(dev_priv->ospm_base + PSB_PM_SSC);
++              pwr_cnt &= ~PSB_PWRGT_DISPLAY_MASK;
++              pwr_mask = PSB_PWRGT_DISPLAY_MASK;
++              outl(pwr_cnt, (dev_priv->ospm_base + PSB_PM_SSC));
++              while (true) {
++                      pwr_sts = inl(dev_priv->ospm_base + PSB_PM_SSS);
++                      if ((pwr_sts & pwr_mask) == 0)
++                              break;
++                      else
++                              udelay(10);
++              }
++      }
++
++      g_hw_power_status_mask |= islands;
++}
++
++/*
++ * save_display_registers
++ *
++ * Description: We are going to suspend so save current display
++ * register state.
++ */
++static int save_display_registers(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct drm_crtc * crtc;
++      struct drm_connector * connector;
++      int i;
++
++      /* Display arbitration control + watermarks */
++      dev_priv->saveDSPARB = PSB_RVDC32(DSPARB);
++      dev_priv->saveDSPFW1 = PSB_RVDC32(DSPFW1);
++      dev_priv->saveDSPFW2 = PSB_RVDC32(DSPFW2);
++      dev_priv->saveDSPFW3 = PSB_RVDC32(DSPFW3);
++      dev_priv->saveDSPFW4 = PSB_RVDC32(DSPFW4);
++      dev_priv->saveDSPFW5 = PSB_RVDC32(DSPFW5);
++      dev_priv->saveDSPFW6 = PSB_RVDC32(DSPFW6);
++      dev_priv->saveCHICKENBIT = PSB_RVDC32(DSPCHICKENBIT);
++
++      if (IS_MRST(dev)) {
++              /* Pipe & plane A info */
++              dev_priv->savePIPEACONF = PSB_RVDC32(PIPEACONF);
++              dev_priv->savePIPEASRC = PSB_RVDC32(PIPEASRC);
++              dev_priv->saveFPA0 = PSB_RVDC32(MRST_FPA0);
++              dev_priv->saveFPA1 = PSB_RVDC32(MRST_FPA1);
++              dev_priv->saveDPLL_A = PSB_RVDC32(MRST_DPLL_A);
++              dev_priv->saveHTOTAL_A = PSB_RVDC32(HTOTAL_A);
++              dev_priv->saveHBLANK_A = PSB_RVDC32(HBLANK_A);
++              dev_priv->saveHSYNC_A = PSB_RVDC32(HSYNC_A);
++              dev_priv->saveVTOTAL_A = PSB_RVDC32(VTOTAL_A);
++              dev_priv->saveVBLANK_A = PSB_RVDC32(VBLANK_A);
++              dev_priv->saveVSYNC_A = PSB_RVDC32(VSYNC_A);
++              dev_priv->saveBCLRPAT_A = PSB_RVDC32(BCLRPAT_A);
++              dev_priv->saveDSPACNTR = PSB_RVDC32(DSPACNTR);
++              dev_priv->saveDSPASTRIDE = PSB_RVDC32(DSPASTRIDE);
++              dev_priv->saveDSPAADDR = PSB_RVDC32(DSPABASE);
++              dev_priv->saveDSPASURF = PSB_RVDC32(DSPASURF);
++              dev_priv->saveDSPALINOFF = PSB_RVDC32(DSPALINOFF);
++              dev_priv->saveDSPATILEOFF = PSB_RVDC32(DSPATILEOFF);
++
++              /*save cursor regs*/
++              dev_priv->saveDSPACURSOR_CTRL = PSB_RVDC32(CURACNTR);
++              dev_priv->saveDSPACURSOR_BASE = PSB_RVDC32(CURABASE);
++              dev_priv->saveDSPACURSOR_POS = PSB_RVDC32(CURAPOS);
++
++              /*save palette (gamma) */
++              for (i = 0; i < 256; i++)
++                      dev_priv->save_palette_a[i] = PSB_RVDC32(PALETTE_A + (i<<2));
++
++              /*save performance state*/
++              dev_priv->savePERF_MODE = PSB_RVDC32(MRST_PERF_MODE);
++
++              /* LVDS state */
++              dev_priv->savePP_CONTROL = PSB_RVDC32(PP_CONTROL);
++              dev_priv->savePFIT_PGM_RATIOS = PSB_RVDC32(PFIT_PGM_RATIOS);
++              dev_priv->savePFIT_AUTO_RATIOS = PSB_RVDC32(PFIT_AUTO_RATIOS);
++              dev_priv->saveBLC_PWM_CTL = PSB_RVDC32(BLC_PWM_CTL);
++              dev_priv->saveBLC_PWM_CTL2 = PSB_RVDC32(BLC_PWM_CTL2);
++              dev_priv->saveLVDS = PSB_RVDC32(LVDS);
++              dev_priv->savePFIT_CONTROL = PSB_RVDC32(PFIT_CONTROL);
++              dev_priv->savePP_ON_DELAYS = PSB_RVDC32(LVDSPP_ON);
++              dev_priv->savePP_OFF_DELAYS = PSB_RVDC32(LVDSPP_OFF);
++              dev_priv->savePP_DIVISOR = PSB_RVDC32(PP_CYCLE);
++
++              /* HW overlay */
++              dev_priv->saveOV_OVADD = PSB_RVDC32(OV_OVADD);
++              dev_priv->saveOV_OGAMC0 = PSB_RVDC32(OV_OGAMC0);
++              dev_priv->saveOV_OGAMC1 = PSB_RVDC32(OV_OGAMC1);
++              dev_priv->saveOV_OGAMC2 = PSB_RVDC32(OV_OGAMC2);
++              dev_priv->saveOV_OGAMC3 = PSB_RVDC32(OV_OGAMC3);
++              dev_priv->saveOV_OGAMC4 = PSB_RVDC32(OV_OGAMC4);
++              dev_priv->saveOV_OGAMC5 = PSB_RVDC32(OV_OGAMC5);
++
++      } else { /*PSB*/
++              /*save crtc and output state*/
++              mutex_lock(&dev->mode_config.mutex);
++              list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++                      if(drm_helper_crtc_in_use(crtc)) {
++                              crtc->funcs->save(crtc);
++                      }
++              }
++              
++              list_for_each_entry(connector, &dev->mode_config.connector_list, head) {
++                      connector->funcs->save(connector);
++              }
++              mutex_unlock(&dev->mode_config.mutex);
++      }
++
++      /* Interrupt state */
++      /*
++       * Handled in psb_irq.c
++       */
++
++      return 0;
++}
++
++/*
++ * restore_display_registers
++ *
++ * Description: We are going to resume so restore display register state.
++ */
++static int restore_display_registers(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct drm_crtc * crtc;
++      struct drm_connector * connector;
++      unsigned long i, pp_stat;
++
++      /* Display arbitration + watermarks */
++      PSB_WVDC32(dev_priv->saveDSPARB, DSPARB);
++      PSB_WVDC32(dev_priv->saveDSPFW1, DSPFW1);
++      PSB_WVDC32(dev_priv->saveDSPFW2, DSPFW2);
++      PSB_WVDC32(dev_priv->saveDSPFW3, DSPFW3);
++      PSB_WVDC32(dev_priv->saveDSPFW4, DSPFW4);
++      PSB_WVDC32(dev_priv->saveDSPFW5, DSPFW5);
++      PSB_WVDC32(dev_priv->saveDSPFW6, DSPFW6);
++      PSB_WVDC32(dev_priv->saveCHICKENBIT, DSPCHICKENBIT);
++
++      /*make sure VGA plane is off. it initializes to on after reset!*/
++      PSB_WVDC32(0x80000000, VGACNTRL);
++
++      if (IS_MRST(dev)) {
++              /* set the plls */
++              PSB_WVDC32(dev_priv->saveFPA0, MRST_FPA0);
++              PSB_WVDC32(dev_priv->saveFPA1, MRST_FPA1);
++              /* Actually enable it */
++              PSB_WVDC32(dev_priv->saveDPLL_A, MRST_DPLL_A);
++              DRM_UDELAY(150);
++
++              /* Restore mode */
++              PSB_WVDC32(dev_priv->saveHTOTAL_A, HTOTAL_A);
++              PSB_WVDC32(dev_priv->saveHBLANK_A, HBLANK_A);
++              PSB_WVDC32(dev_priv->saveHSYNC_A, HSYNC_A);
++              PSB_WVDC32(dev_priv->saveVTOTAL_A, VTOTAL_A);
++              PSB_WVDC32(dev_priv->saveVBLANK_A, VBLANK_A);
++              PSB_WVDC32(dev_priv->saveVSYNC_A, VSYNC_A);
++              PSB_WVDC32(dev_priv->savePIPEASRC, PIPEASRC);
++              PSB_WVDC32(dev_priv->saveBCLRPAT_A, BCLRPAT_A);
++
++              /*restore performance mode*/
++              PSB_WVDC32(dev_priv->savePERF_MODE, MRST_PERF_MODE);
++
++              /*enable the pipe*/
++              PSB_WVDC32(dev_priv->savePIPEACONF, PIPEACONF);
++
++              /*set up the plane*/
++              PSB_WVDC32(dev_priv->saveDSPALINOFF, DSPALINOFF);
++              PSB_WVDC32(dev_priv->saveDSPASTRIDE, DSPASTRIDE);
++              PSB_WVDC32(dev_priv->saveDSPATILEOFF, DSPATILEOFF);
++
++              /* Enable the plane */
++              PSB_WVDC32(dev_priv->saveDSPACNTR, DSPACNTR);
++              PSB_WVDC32(dev_priv->saveDSPASURF, DSPASURF);
++
++              /*Enable Cursor A*/
++              PSB_WVDC32(dev_priv->saveDSPACURSOR_CTRL, CURACNTR);
++              PSB_WVDC32(dev_priv->saveDSPACURSOR_POS, CURAPOS);
++              PSB_WVDC32(dev_priv->saveDSPACURSOR_BASE, CURABASE);
++
++              /* restore palette (gamma) */
++              /*DRM_UDELAY(50000); */
++              for (i = 0; i < 256; i++)
++                      PSB_WVDC32(dev_priv->save_palette_a[i], PALETTE_A + (i<<2));
++
++              PSB_WVDC32(dev_priv->saveBLC_PWM_CTL2, BLC_PWM_CTL2);
++              PSB_WVDC32(dev_priv->saveLVDS, LVDS); /*port 61180h*/
++              PSB_WVDC32(dev_priv->savePFIT_CONTROL, PFIT_CONTROL);
++              PSB_WVDC32(dev_priv->savePFIT_PGM_RATIOS, PFIT_PGM_RATIOS);
++              PSB_WVDC32(dev_priv->savePFIT_AUTO_RATIOS, PFIT_AUTO_RATIOS);
++              PSB_WVDC32(dev_priv->saveBLC_PWM_CTL, BLC_PWM_CTL);
++              PSB_WVDC32(dev_priv->savePP_ON_DELAYS, LVDSPP_ON);
++              PSB_WVDC32(dev_priv->savePP_OFF_DELAYS, LVDSPP_OFF);
++              PSB_WVDC32(dev_priv->savePP_DIVISOR, PP_CYCLE);
++              PSB_WVDC32(dev_priv->savePP_CONTROL, PP_CONTROL);
++              
++              /*wait for cycle delay*/
++              do {
++                      pp_stat = PSB_RVDC32(PP_STATUS);
++              } while (pp_stat & 0x08000000);
++
++              DRM_UDELAY(999);
++              /*wait for panel power up*/
++              do {
++                      pp_stat = PSB_RVDC32(PP_STATUS);
++              } while (pp_stat & 0x10000000);
++
++              /* restore HW overlay */
++              PSB_WVDC32(dev_priv->saveOV_OVADD, OV_OVADD);
++              PSB_WVDC32(dev_priv->saveOV_OGAMC0, OV_OGAMC0);
++              PSB_WVDC32(dev_priv->saveOV_OGAMC1, OV_OGAMC1);
++              PSB_WVDC32(dev_priv->saveOV_OGAMC2, OV_OGAMC2);
++              PSB_WVDC32(dev_priv->saveOV_OGAMC3, OV_OGAMC3);
++              PSB_WVDC32(dev_priv->saveOV_OGAMC4, OV_OGAMC4);
++              PSB_WVDC32(dev_priv->saveOV_OGAMC5, OV_OGAMC5);
++
++      } else { /*PSB*/
++              mutex_lock(&dev->mode_config.mutex);
++              list_for_each_entry(crtc, &dev->mode_config.crtc_list, head) {
++                      if(drm_helper_crtc_in_use(crtc))
++                              crtc->funcs->restore(crtc);
++              }
++
++              list_for_each_entry(connector, &dev->mode_config.connector_list, head) {
++                      connector->funcs->restore(connector);
++              }
++              mutex_unlock(&dev->mode_config.mutex);
++      }
++
++
++      /*Interrupt state*/
++      /*
++       * Handled in psb_irq.c
++       */
++
++      return 0;
++}
++
++/*
++ * powermgmt_suspend_graphics
++ *
++ * Description: Suspend the graphics hardware saving state and disabling
++ * as necessary.
++ */
++static void powermgmt_suspend_graphics(struct drm_device *dev, bool b_initiated_by_ospm)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      if (!(g_hw_power_status_mask & PSB_GRAPHICS_ISLAND))
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_suspend_graphics\n");
++
++      dev_priv->saveCLOCKGATING = PSB_RSGX32(PSB_CR_CLKGATECTL);
++      if (b_initiated_by_ospm) {
++              int ret = -EBUSY;
++              ret = psb_idle_3d(dev);
++              if (ret == -EBUSY)
++              {
++                      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_suspend_graphics ***3d BUSY!!!!!!\n");
++                      return;
++              }
++                      
++              ret = psb_idle_2d(dev);
++              if (ret == -EBUSY)
++              {
++                      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_suspend_graphics ***2d BUSY!!!!!!\n");
++                      return;
++              }
++              if (IS_POULSBO(dev))
++                      flush_scheduled_work();
++      }
++      psb_irq_uninstall_islands(dev, PSB_GRAPHICS_ISLAND);
++      powermgmt_down_island_power(dev, PSB_GRAPHICS_ISLAND);
++}
++
++/*
++ * powermgmt_resume_graphics
++ *
++ * Description: Resume the graphics hardware restoring state and enabling
++ * as necessary.
++ */
++static void powermgmt_resume_graphics(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++
++      if (g_hw_power_status_mask & PSB_GRAPHICS_ISLAND)
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_resume_graphics\n");
++
++      INIT_LIST_HEAD(&dev_priv->resume_buf.head);
++
++      powermgmt_up_island_power(dev, PSB_GRAPHICS_ISLAND);
++
++      /*
++       * The SGX loses it's register contents.
++       * Restore BIF registers. The MMU page tables are
++       * "normal" pages, so their contents should be kept.
++       */
++      PSB_WSGX32(dev_priv->saveCLOCKGATING, PSB_CR_CLKGATECTL);
++      PSB_WSGX32(0x00000000, PSB_CR_BIF_BANK0);
++      PSB_WSGX32(0x00000000, PSB_CR_BIF_BANK1);
++      PSB_RSGX32(PSB_CR_BIF_BANK1);
++
++      psb_mmu_set_pd_context(psb_mmu_get_default_pd(dev_priv->mmu), 0);
++      psb_mmu_set_pd_context(dev_priv->pf_pd, 1);
++      psb_mmu_enable_requestor(dev_priv->mmu, _PSB_MMU_ER_MASK);
++
++      if (IS_POULSBO(dev))
++              psb_reset(dev_priv, 1);
++
++      dev_priv->mmu_2d_offset = dev_priv->pg->gatt_start;
++      PSB_WSGX32(dev_priv->mmu_2d_offset, PSB_CR_BIF_TWOD_REQ_BASE);
++      (void) PSB_RSGX32(PSB_CR_BIF_TWOD_REQ_BASE);
++
++      /*
++       * Persistant 3D base registers and USSE base registers..
++       */
++
++      PSB_WSGX32(PSB_MEM_PDS_START, PSB_CR_PDS_EXEC_BASE);
++      PSB_WSGX32(PSB_MEM_RASTGEOM_START, PSB_CR_BIF_3D_REQ_BASE);
++
++      /*
++       * Now, re-initialize the 3D engine.
++       */
++
++      if (dev_priv->xhw_on)
++              psb_xhw_resume(dev_priv, &dev_priv->resume_buf);
++
++      psb_scheduler_ta_mem_check(dev_priv);
++      if (dev_priv->ta_mem && !dev_priv->force_ta_mem_load) {
++              psb_xhw_ta_mem_load(dev_priv, &dev_priv->resume_buf,
++                                  PSB_TA_MEM_FLAG_TA |
++                                  PSB_TA_MEM_FLAG_RASTER |
++                                  PSB_TA_MEM_FLAG_HOSTA |
++                                  PSB_TA_MEM_FLAG_HOSTD |
++                                  PSB_TA_MEM_FLAG_INIT,
++                                  dev_priv->ta_mem->ta_memory->offset,
++                                  dev_priv->ta_mem->hw_data->offset,
++                                  dev_priv->ta_mem->hw_cookie);
++      }
++}
++
++/*
++ * powermgmt_suspend_videodec
++ *
++ * Description: Suspend the video decode hardware saving state and disabling
++ * as necessary.
++ */
++static void powermgmt_suspend_videodec(struct drm_device *dev, bool b_initiated_by_ospm)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      if (!(g_hw_power_status_mask & PSB_VIDEO_DEC_ISLAND))
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_suspend_videodec\n");
++
++      if (b_initiated_by_ospm)
++              psb_wait_msvdx_idle(dev);
++      else {
++              /* return without power off for D0i3/APM */
++              if (psb_check_msvdx_idle(dev))
++                      return;
++      }
++
++      psb_irq_uninstall_islands(dev, PSB_VIDEO_DEC_ISLAND);
++      /* UGLY ... expose internal structure..
++       * it should be a function of save_context
++       * but there is no need for restore_context...
++       * replace it with a function?
++       */
++      msvdx_priv->msvdx_needs_reset = 1;
++      powermgmt_down_island_power(dev, PSB_VIDEO_DEC_ISLAND);
++
++      MSVDX_NEW_PMSTATE(dev, msvdx_priv, PSB_PMSTATE_POWERDOWN);
++}
++
++/*
++ * powermgmt_resume_videodec
++ *
++ * Description: Resume the video decode hardware restoring state and enabling
++ * as necessary.
++ */
++static void powermgmt_resume_videodec(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      if (g_hw_power_status_mask & PSB_VIDEO_DEC_ISLAND)
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_resume_videodec\n");
++
++      powermgmt_up_island_power(dev, PSB_VIDEO_DEC_ISLAND);
++      MSVDX_NEW_PMSTATE(dev, msvdx_priv, PSB_PMSTATE_POWERUP);
++}
++
++/*
++ * powermgmt_suspend_videoenc
++ *
++ * Description: Suspend the video encode hardware saving state and disabling
++ * as necessary.
++ */
++static void powermgmt_suspend_videoenc(struct drm_device *dev, bool b_initiated_by_ospm)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      if (!(g_hw_power_status_mask & PSB_VIDEO_ENC_ISLAND))
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_suspend_videoenc\n");
++
++      if (b_initiated_by_ospm)
++              lnc_wait_topaz_idle(dev);
++      else {
++              /* return without power off for D0i3/APM */
++              if (lnc_check_topaz_idle(dev))
++                      return;
++      }
++
++      psb_irq_uninstall_islands(dev, PSB_VIDEO_ENC_ISLAND);
++      lnc_topaz_save_mtx_state(dev);
++      powermgmt_down_island_power(dev, PSB_VIDEO_ENC_ISLAND);
++
++      TOPAZ_NEW_PMSTATE(dev, topaz_priv, PSB_PMSTATE_POWERDOWN);
++}
++
++/*
++ * powermgmt_resume_videoenc
++ *
++ * Description: Resume the video encode hardware restoring state and enabling
++ * as necessary.
++ */
++static void powermgmt_resume_videoenc(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++              (struct drm_psb_private *)dev->dev_private;
++      struct topaz_private *topaz_priv = dev_priv->topaz_private;
++
++      if (g_hw_power_status_mask & PSB_VIDEO_ENC_ISLAND)
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_resume_videoenc\n");
++
++      powermgmt_up_island_power(dev, PSB_VIDEO_ENC_ISLAND);
++      lnc_topaz_restore_mtx_state(dev);
++
++      TOPAZ_NEW_PMSTATE(dev, topaz_priv, PSB_PMSTATE_POWERUP);
++}
++
++/*
++ * powermgmt_suspend_display
++ *
++ * Description: Suspend the display hardware saving state and disabling
++ * as necessary.
++ */
++static void powermgmt_suspend_display(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      int pp_stat, jb;
++
++      if (!(g_hw_power_status_mask & PSB_DISPLAY_ISLAND))
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_suspend_display\n");
++
++      save_display_registers(dev);
++
++      /*shutdown the panel*/
++      PSB_WVDC32(0, PP_CONTROL);
++
++      do {
++              pp_stat = PSB_RVDC32(PP_STATUS);
++      } while (pp_stat & 0x80000000);
++
++      /*turn off the plane*/
++      PSB_WVDC32(0x58000000, DSPACNTR);
++      PSB_WVDC32(0, DSPASURF);/*trigger the plane disable*/
++      jb = jiffies + 4; /*wait 4 ticks*/
++      while (jiffies < jb)
++              schedule();
++
++      /*turn off pipe*/
++      PSB_WVDC32(0x0, PIPEACONF);
++      jb = jiffies + 8; /*wait 8 ticks*/
++      while (jiffies < jb)
++              schedule();
++
++      /*turn off PLLs*/
++      PSB_WVDC32(0, MRST_DPLL_A);
++
++      powermgmt_down_island_power(dev, PSB_DISPLAY_ISLAND);
++}
++
++/*
++ * powermgmt_resume_display
++ *
++ * Description: Resume the display hardware restoring state and enabling
++ * as necessary.
++ */
++static void powermgmt_resume_display(struct pci_dev *pdev)
++{
++      struct drm_device *dev = pci_get_drvdata(pdev);
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct psb_gtt *pg = dev_priv->pg;
++
++      if (g_hw_power_status_mask & PSB_DISPLAY_ISLAND)
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_resume_display\n");
++
++      /* turn on the display power island */
++      powermgmt_up_island_power(dev, PSB_DISPLAY_ISLAND);
++
++      PSB_WVDC32(pg->pge_ctl | _PSB_PGETBL_ENABLED, PSB_PGETBL_CTL);
++      pci_write_config_word(pdev, PSB_GMCH_CTRL,
++                            pg->gmch_ctrl | _PSB_GMCH_ENABLED);
++
++      /* Don't reinitialize the GTT as it is unnecessary.  The gtt is
++       * stored in memory so it will automatically be restored.  All
++       * we need to do is restore the PGETBL_CTL which we already do
++       * above.
++       */
++      /*psb_gtt_init(dev_priv->pg, 1);*/
++
++      restore_display_registers(dev);
++}
++
++/*
++ * powermgmt_suspend_pci
++ *
++ * Description: Suspend the pci device saving state and disabling
++ * as necessary.
++ */
++static void powermgmt_suspend_pci(struct pci_dev *pdev)
++{
++      struct drm_device *dev = pci_get_drvdata(pdev);
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct pci_dev *pci_gfx_root = pci_get_bus_and_slot(0, PCI_DEVFN(2, 0));
++      int bsm, vbt;
++
++      if (!g_pci_power_status)
++              return;
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_suspend_pci\n");
++
++      pci_save_state(pdev);
++      pci_read_config_dword(pci_gfx_root, 0x5C, &bsm);
++      dev_priv->saveBSM = bsm;
++      pci_read_config_dword(pci_gfx_root, 0xFC, &vbt);
++      dev_priv->saveVBT = vbt;
++      pci_read_config_dword(pdev, PSB_PCIx_MSI_ADDR_LOC, &dev_priv->msi_addr);
++      pci_read_config_dword(pdev, PSB_PCIx_MSI_DATA_LOC, &dev_priv->msi_data);
++
++      pci_disable_device(pdev);
++      pci_set_power_state(pdev, PCI_D3hot);
++
++      g_pci_power_status = 0;
++}
++
++/*
++ * powermgmt_resume_pci
++ *
++ * Description: Resume the pci device restoring state and enabling
++ * as necessary.
++ */
++static int powermgmt_resume_pci(struct pci_dev *pdev)
++{
++      struct drm_device *dev = pci_get_drvdata(pdev);
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct pci_dev *pci_gfx_root = pci_get_bus_and_slot(0, PCI_DEVFN(2, 0));
++      int ret = 0;
++
++      if (g_pci_power_status)
++              return ret;
++
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_resume_pci\n");
++
++      pci_set_power_state(pdev, PCI_D0);
++      pci_restore_state(pdev);
++      pci_write_config_dword(pci_gfx_root, 0x5c, dev_priv->saveBSM);
++      pci_write_config_dword(pci_gfx_root, 0xFC, dev_priv->saveVBT);
++      /* retoring MSI address and data in PCIx space */
++      pci_write_config_dword(pdev, PSB_PCIx_MSI_ADDR_LOC, dev_priv->msi_addr);
++      pci_write_config_dword(pdev, PSB_PCIx_MSI_DATA_LOC, dev_priv->msi_data);
++      ret = pci_enable_device(pdev);
++
++      g_pci_power_status = 1;
++
++      return ret;
++}
++
++/*
++ * powermgmt_suspend
++ *
++ * Description: OSPM is telling our driver to suspend to save state
++ * and power down all hardware.
++ */
++int powermgmt_suspend(struct pci_dev *pdev, pm_message_t state)
++{
++      int ret;
++      ret = powermgmt_suspend_islands(pdev, PSB_ALL_ISLANDS, true);   
++      if (ret == -EBUSY)
++              PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_suspend***BUSY!!!!!!\n");
++
++      return ret;
++}
++
++/*
++ * powermgmt_suspend_islands
++ *
++ * Description: Suspend the specified island by saving state
++ * and power down the hardware.
++ */
++int powermgmt_suspend_islands(struct pci_dev *pdev, int hw_islands, bool b_initiated_by_ospm)
++{
++      struct drm_device *dev = pci_get_drvdata(pdev);
++      struct drm_psb_private *dev_priv = (struct drm_psb_private *)dev->dev_private;
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++      int ret = 0;
++
++      if (in_interrupt()) {
++              /*
++               * If an interrupt handler calls powermgmt_suspend_islands(), we can't call mutex_lock.
++               * Right now, only video enc/dec calls us from interrupt handler.  Should be safe to
++               * just proceed since the only code that resumes video enc/dec is internal to our driver
++               * and should be written in such a way that shouldn't cause any issues.  If we are already
++               * in the middle of an OSPM initiated suspend, then just return since that will take care
++               * of powering off video enc/dec for us.  Also, don't set g_suspend_mask and
++               * g_suspend_in_progress since this function will be atomic since we are in an
++               * interrupt handler and thus no outside parties will get the chance to care and we
++               * don't want to overright any pending suspend operations that go interrupted.
++               */
++              if (b_initiated_by_ospm)
++                      return ret;
++      }
++      else {
++              mutex_lock(&g_state_change_mutex);
++
++              g_suspend_mask = hw_islands;
++              g_suspend_in_progress = true;
++      }
++      atomic_inc(&g_pm_waiters);
++              
++      if (g_hw_power_status_mask & PSB_GRAPHICS_ISLAND) {
++              if (atomic_read(&g_graphics_access_count))
++                      ret = -EBUSY;
++              if ((PSB_RSGX32(PSB_CR_2D_SOCIF) !=
++                                  _PSB_C2_SOCIF_EMPTY) ||
++                                  ((PSB_RSGX32(PSB_CR_2D_BLIT_STATUS) &
++                                    _PSB_C2B_STATUS_BUSY) != 0)) {
++                                      ret = -EBUSY;
++              }
++              spin_lock_irqsave(&scheduler->lock, irq_flags);
++              if (!scheduler->idle ||
++                                     !list_empty(&scheduler->raster_queue) ||
++                                     !list_empty(&scheduler->ta_queue) ||
++                                     !list_empty(&scheduler->hp_raster_queue) ||
++                                     scheduler->feedback_task) {
++                                      ret = -EBUSY;
++              }
++              spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++      }
++      if ((hw_islands & PSB_VIDEO_DEC_ISLAND) &&
++                   atomic_read(&g_videodec_access_count))
++              ret = -EBUSY;
++      if ((hw_islands & PSB_VIDEO_ENC_ISLAND) &&
++                   atomic_read(&g_videoenc_access_count))
++              ret = -EBUSY;
++      if ((hw_islands & PSB_DISPLAY_ISLAND) &&
++                   atomic_read(&g_display_access_count))
++              ret = -EBUSY;
++
++      atomic_dec(&g_pm_waiters);
++
++      if (!ret) {
++              /*disable gfx interupt later when sgx is idle*/
++              psb_irq_uninstall_islands(dev, hw_islands & ~PSB_GRAPHICS_ISLAND &
++                                        ~PSB_VIDEO_ENC_ISLAND & ~PSB_VIDEO_DEC_ISLAND);
++
++              if (hw_islands & PSB_VIDEO_DEC_ISLAND)
++                      powermgmt_suspend_videodec(dev, b_initiated_by_ospm);
++              if(IS_MRST(dev)) {
++                      if (hw_islands & PSB_VIDEO_ENC_ISLAND)
++                              powermgmt_suspend_videoenc(dev, b_initiated_by_ospm);
++              }
++              if (hw_islands & PSB_GRAPHICS_ISLAND)
++                      powermgmt_suspend_graphics(dev, b_initiated_by_ospm);
++              if (hw_islands & PSB_DISPLAY_ISLAND)
++                      powermgmt_suspend_display(dev);
++              if (g_hw_power_status_mask == 0) {
++                      if (drm_core_check_feature(dev, DRIVER_MODESET))
++                              drm_irq_uninstall(dev);
++                      powermgmt_suspend_pci(pdev);
++              }
++      }
++
++#ifdef OSPM_STAT
++      if (hw_islands & PSB_GRAPHICS_ISLAND) {
++              bool b_change = true;
++              if (dev_priv->graphics_state == PSB_PWR_STATE_D0)
++                      dev_priv->gfx_d0_time += jiffies - dev_priv->gfx_last_mode_change;
++              else if (dev_priv->graphics_state == PSB_PWR_STATE_D0i3)
++                      dev_priv->gfx_d0i3_time += jiffies - dev_priv->gfx_last_mode_change;
++              else
++                      b_change = false;
++              if (b_change) {
++                      dev_priv->gfx_last_mode_change = jiffies;
++                      if (g_hw_power_status_mask & PSB_DISPLAY_ISLAND) {
++                              dev_priv->graphics_state = PSB_PWR_STATE_D0i3;
++                              dev_priv->gfx_d0i3_cnt++;
++                      } else {
++                              dev_priv->graphics_state = PSB_PWR_STATE_D3;
++                              dev_priv->gfx_d3_cnt++;
++                      }
++              }
++      }
++#endif
++
++      if (!in_interrupt()) {
++              g_suspend_in_progress = false;
++              mutex_unlock(&g_state_change_mutex);
++      }
++
++      return ret;
++}
++
++/*
++ * powermgmt_resume
++ *
++ * Description: OSPM is telling our driver to resume so restore state
++ * and power up display.  Leave graphics and video powered off as they
++ * will be powered up once needed.
++ */
++int powermgmt_resume(struct pci_dev *pdev)
++{
++      return 0;
++      //return powermgmt_resume_islands(pdev, PSB_DISPLAY_ISLAND);
++}
++
++/*
++ * powermgmt_resume_islands
++ *
++ * Description: Resume the specified islands by restoring state
++ * and power things up.
++ */
++int powermgmt_resume_islands(struct pci_dev *pdev, int hw_islands)
++{
++      struct drm_device *dev = pci_get_drvdata(pdev);
++      struct drm_psb_private *dev_priv = (struct drm_psb_private *)dev->dev_private;
++      bool b_install_irq = false;
++      int ret = 0;
++
++      if (!g_forcing_resume)
++              mutex_lock(&g_state_change_mutex);
++
++      g_resume_mask = hw_islands;
++      g_resume_in_progress = true;
++
++      PWR_PRINT("BEN_KERNEL_OSPM************powermgmt_resume_islands\n");
++
++      if (g_hw_power_status_mask == 0) {
++              if (powermgmt_resume_pci(pdev))
++                      goto resume_exit;
++              b_install_irq = drm_core_check_feature(dev, DRIVER_MODESET);
++      }
++
++      if (hw_islands & PSB_DISPLAY_ISLAND)
++              powermgmt_resume_display(pdev);
++      if (IS_MRST(dev)) {
++              if (hw_islands & PSB_VIDEO_ENC_ISLAND)
++                      powermgmt_resume_videoenc(dev);
++      }
++      if (hw_islands & PSB_VIDEO_DEC_ISLAND)
++              powermgmt_resume_videodec(dev);
++      if (hw_islands & PSB_GRAPHICS_ISLAND)
++              powermgmt_resume_graphics(dev);
++      if (b_install_irq)
++              drm_irq_install(dev);
++      else {
++              psb_irq_preinstall_islands(dev, hw_islands);
++              psb_irq_postinstall_islands(dev, hw_islands);
++      }
++
++#ifdef OSPM_STAT
++      if (hw_islands & PSB_GRAPHICS_ISLAND) {
++              bool b_change = true;
++              if (dev_priv->graphics_state == PSB_PWR_STATE_D0i3)
++                      dev_priv->gfx_d0i3_time += jiffies - dev_priv->gfx_last_mode_change;
++              else if (dev_priv->graphics_state == PSB_PWR_STATE_D3)
++                      dev_priv->gfx_d3_time += jiffies - dev_priv->gfx_last_mode_change;
++              else
++                      b_change = false;
++
++              if (b_change) {
++                      dev_priv->gfx_last_mode_change = jiffies;
++                      dev_priv->graphics_state = PSB_PWR_STATE_D0;
++                      dev_priv->gfx_d0_cnt++;
++              }
++      }
++#endif
++
++      g_resume_in_progress = false;
++
++resume_exit:
++      if (!g_forcing_resume)
++              mutex_unlock(&g_state_change_mutex);
++      return ret;
++}
++
++/*
++ * powermgmt_using_hw_begin
++ *
++ * Description: Notify PowerMgmt module that you will be accessing the
++ * specified islands' hw so don't power it off.  If force_on is true,
++ * this will power on any of the specified islands which are off.
++ * Otherwise, this will return false and the caller is expected to not
++ * access the hw.
++ *
++ * NOTE *** If this is called from and interrupt handler or other atomic
++ * context, then it will return false if we are in the middle of a
++ * power state transition and the caller will be expected to handle that
++ * even if force_on is set to true.
++ */
++bool powermgmt_using_hw_begin(struct pci_dev *pdev, int hw_islands, bool force_on)
++{
++      bool ret = true;
++      int off_islands = 0;
++      bool b_atomic = (in_interrupt() || in_atomic());
++      
++      if (!b_atomic)
++              mutex_lock(&g_state_change_mutex);
++
++      if (b_atomic &&
++          (powermgmt_is_suspend_in_progress(hw_islands) ||
++           powermgmt_is_resume_in_progress(hw_islands))) {
++              if (force_on)
++                      printk(KERN_WARNING "!!!WARNING!!! powermgmt_using_hw_begin - force_on failed - be sure to check return value !!!WARNING!!!\n");
++              ret = false;
++      } else {
++              off_islands = hw_islands & (PSB_ALL_ISLANDS & ~g_hw_power_status_mask);
++              if (off_islands) {
++                      if (force_on) {
++                              g_forcing_resume = true;
++                              powermgmt_resume_islands(pdev, off_islands);
++                              g_forcing_resume = false;
++                      } else {
++                              ret = false;
++                      }
++              }
++      }
++
++      if (ret) {
++              if (hw_islands & PSB_GRAPHICS_ISLAND)
++                      atomic_inc(&g_graphics_access_count);
++              if (hw_islands & PSB_VIDEO_ENC_ISLAND)
++                      atomic_inc(&g_videoenc_access_count);
++              if (hw_islands & PSB_VIDEO_DEC_ISLAND)
++                      atomic_inc(&g_videodec_access_count);
++              if (hw_islands & PSB_DISPLAY_ISLAND)
++                      atomic_inc(&g_display_access_count);
++      }
++
++      if (!b_atomic)
++              mutex_unlock(&g_state_change_mutex);
++
++      return ret;
++}
++
++/*
++ * powermgmt_using_hw_end
++ *
++ * Description: Notify PowerMgmt module that you are done accessing the
++ * specified islands' hw so feel free to power it off.  Note that this
++ * function doesn't actually power off the islands.  The caller should
++ * call psb_suspend(hw_islands) if it wishes to proactively power them
++ * down.
++ */
++void powermgmt_using_hw_end(int hw_islands)
++{
++      if (hw_islands & PSB_GRAPHICS_ISLAND) {
++              atomic_dec(&g_graphics_access_count);
++      }
++      if (hw_islands & PSB_VIDEO_ENC_ISLAND){
++              atomic_dec(&g_videoenc_access_count);
++      }
++      if (hw_islands & PSB_VIDEO_DEC_ISLAND){
++              atomic_dec(&g_videodec_access_count);
++      }
++      if (hw_islands & PSB_DISPLAY_ISLAND){
++              atomic_dec(&g_display_access_count);
++      }
++      
++      if(!atomic_read(&g_graphics_access_count) &&
++         !atomic_read(&g_videoenc_access_count) &&
++         !atomic_read(&g_videodec_access_count) &&
++         !atomic_read(&g_display_access_count) &&
++         atomic_read(&g_pm_waiters))
++      
++      WARN_ON(atomic_read(&g_graphics_access_count) < 0);
++      WARN_ON(atomic_read(&g_videoenc_access_count) < 0);
++      WARN_ON(atomic_read(&g_videodec_access_count) < 0);
++      WARN_ON(atomic_read(&g_display_access_count) < 0);
++}
++
++/*
++ * powermgmt_is_hw_on
++ *
++ * Description: do an instantaneous check for if the specified islands
++ * are on.  Only use this in cases where you know the g_state_change_mutex
++ * is already held such as in irq install/uninstall.  Otherwise, use
++ * powermgmt_usinghw_begin().
++ */
++bool powermgmt_is_hw_on(struct pci_dev *pdev, int hw_islands)
++{
++      return ((g_hw_power_status_mask & hw_islands) == hw_islands);
++}
++
++/*
++ * powermgmt_is_suspend_in_progress
++ *
++ * Description: Are we in the middle of suspending any of the
++ * specified hardware?
++ */
++bool powermgmt_is_suspend_in_progress(int hw_islands)
++{
++      return (g_suspend_in_progress) ? ((g_suspend_mask & hw_islands) ? true : false) : false;
++}
++
++/*
++ * powermgmt_is_resume_in_progress
++ *
++ * Description: Are we in the middle of resuming any of the
++ * specified hardware?
++ */
++bool powermgmt_is_resume_in_progress(int hw_islands)
++{
++      return (g_resume_in_progress) ? ((g_resume_mask & hw_islands) ? true : false) : false;
++}
++/*
++ * powermgmt_is_gfx_busy
++ *
++ * Description: Is someone useing GFX HW currently?
++ *
++ */
++bool powermgmt_is_gfx_busy()
++{
++      return (atomic_read(&g_graphics_access_count) ? true : false);
++}
+diff --git a/drivers/gpu/drm/psb/psb_powermgmt.h b/drivers/gpu/drm/psb/psb_powermgmt.h
+new file mode 100644
+index 0000000..5b40495
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_powermgmt.h
+@@ -0,0 +1,73 @@
++/**************************************************************************
++ * Copyright (c) 2009, Intel Corporation.
++ * All Rights Reserved.
++
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
++ * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
++ * SOFTWARE.
++ *
++ * Authors:
++ *    Benjamin Defnet <benjamin.r.defnet@intel.com>
++ *
++ */
++#ifndef _PSB_POWERMGMT_H_
++#define _PSB_POWERMGMT_H_
++
++#include <linux/pci.h>
++
++#define PSB_GRAPHICS_ISLAND   0x1
++#define PSB_VIDEO_ENC_ISLAND  0x2
++#define PSB_VIDEO_DEC_ISLAND  0x4
++#define PSB_DISPLAY_ISLAND    0x8
++#define PSB_ALL_ISLANDS               0xf
++
++void powermgmt_init(void);
++void powermgmt_shutdown(void);
++
++/*
++ * OSPM will call these functions
++ */
++int powermgmt_suspend(struct pci_dev *pdev, pm_message_t state);
++int powermgmt_resume(struct pci_dev *pdev);
++
++/*
++ * These are the functions the driver should call to do internally driven
++ * power gating (D0i3)
++ */
++int powermgmt_suspend_islands(struct pci_dev *pdev, int hw_islands, bool b_initiated_by_ospm);
++int powermgmt_resume_islands(struct pci_dev *pdev, int hw_islands);
++
++/*
++ * These are the functions the driver should use to wrap all hw access
++ * (i.e. register reads and writes)
++ */
++bool powermgmt_using_hw_begin(struct pci_dev *pdev, int hw_islands, bool force_on);
++void powermgmt_using_hw_end(int hw_islands);
++
++/*
++ * Use this function to do an instantaneous check for if the hw is on.
++ * Only use this in cases where you know the g_state_change_mutex
++ * is already held such as in irq install/uninstall and you need to
++ * prevent a deadlock situation.  Otherwise use powermgmt_using_hw_begin().
++ */
++bool powermgmt_is_hw_on(struct pci_dev *pdev, int hw_islands);
++
++bool powermgmt_is_suspend_in_progress(int hw_islands);
++bool powermgmt_is_resume_in_progress(int hw_islands);
++bool powermgmt_is_gfx_busy(void);
++#endif /*_PSB_POWERMGMT_H_*/
+diff --git a/drivers/gpu/drm/psb/psb_reg.h b/drivers/gpu/drm/psb/psb_reg.h
+new file mode 100644
+index 0000000..4974689
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_reg.h
+@@ -0,0 +1,574 @@
++/**************************************************************************
++ *
++ * Copyright (c) (2005-2007) Imagination Technologies Limited.
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ */
++#ifndef _PSB_REG_H_
++#define _PSB_REG_H_
++
++#define PSB_CR_CLKGATECTL                0x0000
++#define _PSB_C_CLKGATECTL_AUTO_MAN_REG   (1 << 24)
++#define _PSB_C_CLKGATECTL_USE_CLKG_SHIFT (20)
++#define _PSB_C_CLKGATECTL_USE_CLKG_MASK  (0x3 << 20)
++#define _PSB_C_CLKGATECTL_DPM_CLKG_SHIFT (16)
++#define _PSB_C_CLKGATECTL_DPM_CLKG_MASK  (0x3 << 16)
++#define _PSB_C_CLKGATECTL_TA_CLKG_SHIFT  (12)
++#define _PSB_C_CLKGATECTL_TA_CLKG_MASK   (0x3 << 12)
++#define _PSB_C_CLKGATECTL_TSP_CLKG_SHIFT (8)
++#define _PSB_C_CLKGATECTL_TSP_CLKG_MASK  (0x3 << 8)
++#define _PSB_C_CLKGATECTL_ISP_CLKG_SHIFT (4)
++#define _PSB_C_CLKGATECTL_ISP_CLKG_MASK  (0x3 << 4)
++#define _PSB_C_CLKGATECTL_2D_CLKG_SHIFT  (0)
++#define _PSB_C_CLKGATECTL_2D_CLKG_MASK   (0x3 << 0)
++#define _PSB_C_CLKGATECTL_CLKG_ENABLED   (0)
++#define _PSB_C_CLKGATECTL_CLKG_DISABLED  (1)
++#define _PSB_C_CLKGATECTL_CLKG_AUTO      (2)
++
++#define PSB_CR_CORE_ID                   0x0010
++#define _PSB_CC_ID_ID_SHIFT              (16)
++#define _PSB_CC_ID_ID_MASK               (0xFFFF << 16)
++#define _PSB_CC_ID_CONFIG_SHIFT          (0)
++#define _PSB_CC_ID_CONFIG_MASK           (0xFFFF << 0)
++
++#define PSB_CR_CORE_REVISION               0x0014
++#define _PSB_CC_REVISION_DESIGNER_SHIFT    (24)
++#define _PSB_CC_REVISION_DESIGNER_MASK     (0xFF << 24)
++#define _PSB_CC_REVISION_MAJOR_SHIFT       (16)
++#define _PSB_CC_REVISION_MAJOR_MASK        (0xFF << 16)
++#define _PSB_CC_REVISION_MINOR_SHIFT       (8)
++#define _PSB_CC_REVISION_MINOR_MASK        (0xFF << 8)
++#define _PSB_CC_REVISION_MAINTENANCE_SHIFT (0)
++#define _PSB_CC_REVISION_MAINTENANCE_MASK  (0xFF << 0)
++
++#define PSB_CR_DESIGNER_REV_FIELD1       0x0018
++
++#define PSB_CR_SOFT_RESET                0x0080
++#define _PSB_CS_RESET_TSP_RESET          (1 << 6)
++#define _PSB_CS_RESET_ISP_RESET          (1 << 5)
++#define _PSB_CS_RESET_USE_RESET          (1 << 4)
++#define _PSB_CS_RESET_TA_RESET           (1 << 3)
++#define _PSB_CS_RESET_DPM_RESET          (1 << 2)
++#define _PSB_CS_RESET_TWOD_RESET         (1 << 1)
++#define _PSB_CS_RESET_BIF_RESET          (1 << 0)
++
++#define PSB_CR_DESIGNER_REV_FIELD2       0x001C
++
++#define PSB_CR_EVENT_HOST_ENABLE2        0x0110
++
++#define PSB_CR_EVENT_STATUS2             0x0118
++
++#define PSB_CR_EVENT_HOST_CLEAR2         0x0114
++#define _PSB_CE2_BIF_REQUESTER_FAULT     (1 << 4)
++
++#define PSB_CR_EVENT_STATUS              0x012C
++
++#define PSB_CR_EVENT_HOST_ENABLE         0x0130
++
++#define PSB_CR_EVENT_HOST_CLEAR          0x0134
++#define _PSB_CE_MASTER_INTERRUPT         (1 << 31)
++#define _PSB_CE_TA_DPM_FAULT             (1 << 28)
++#define _PSB_CE_TWOD_COMPLETE            (1 << 27)
++#define _PSB_CE_DPM_OUT_OF_MEMORY_ZLS    (1 << 25)
++#define _PSB_CE_DPM_TA_MEM_FREE          (1 << 24)
++#define _PSB_CE_PIXELBE_END_RENDER       (1 << 18)
++#define _PSB_CE_SW_EVENT                 (1 << 14)
++#define _PSB_CE_TA_FINISHED              (1 << 13)
++#define _PSB_CE_TA_TERMINATE             (1 << 12)
++#define _PSB_CE_DPM_REACHED_MEM_THRESH   (1 << 3)
++#define _PSB_CE_DPM_OUT_OF_MEMORY_GBL    (1 << 2)
++#define _PSB_CE_DPM_OUT_OF_MEMORY_MT     (1 << 1)
++#define _PSB_CE_DPM_3D_MEM_FREE          (1 << 0)
++
++
++#define PSB_USE_OFFSET_MASK              0x0007FFFF
++#define PSB_USE_OFFSET_SIZE              (PSB_USE_OFFSET_MASK + 1)
++#define PSB_CR_USE_CODE_BASE0            0x0A0C
++#define PSB_CR_USE_CODE_BASE1            0x0A10
++#define PSB_CR_USE_CODE_BASE2            0x0A14
++#define PSB_CR_USE_CODE_BASE3            0x0A18
++#define PSB_CR_USE_CODE_BASE4            0x0A1C
++#define PSB_CR_USE_CODE_BASE5            0x0A20
++#define PSB_CR_USE_CODE_BASE6            0x0A24
++#define PSB_CR_USE_CODE_BASE7            0x0A28
++#define PSB_CR_USE_CODE_BASE8            0x0A2C
++#define PSB_CR_USE_CODE_BASE9            0x0A30
++#define PSB_CR_USE_CODE_BASE10           0x0A34
++#define PSB_CR_USE_CODE_BASE11           0x0A38
++#define PSB_CR_USE_CODE_BASE12           0x0A3C
++#define PSB_CR_USE_CODE_BASE13           0x0A40
++#define PSB_CR_USE_CODE_BASE14           0x0A44
++#define PSB_CR_USE_CODE_BASE15           0x0A48
++#define PSB_CR_USE_CODE_BASE(_i) (0x0A0C + ((_i) << 2))
++#define _PSB_CUC_BASE_DM_SHIFT           (25)
++#define _PSB_CUC_BASE_DM_MASK            (0x3 << 25)
++#define _PSB_CUC_BASE_ADDR_SHIFT         (0)  /* 1024-bit aligned address? */
++#define _PSB_CUC_BASE_ADDR_ALIGNSHIFT    (7)
++#define _PSB_CUC_BASE_ADDR_MASK          (0x1FFFFFF << 0)
++#define _PSB_CUC_DM_VERTEX             (0)
++#define _PSB_CUC_DM_PIXEL              (1)
++#define _PSB_CUC_DM_RESERVED           (2)
++#define _PSB_CUC_DM_EDM                        (3)
++
++#define PSB_CR_PDS_EXEC_BASE             0x0AB8
++#define _PSB_CR_PDS_EXEC_BASE_ADDR_SHIFT (20) /* 1MB aligned address */
++#define _PSB_CR_PDS_EXEC_BASE_ADDR_ALIGNSHIFT (20)
++
++#define PSB_CR_EVENT_KICKER              0x0AC4
++#define _PSB_CE_KICKER_ADDRESS_SHIFT     (4)  /* 128-bit aligned address */
++
++#define PSB_CR_EVENT_KICK                0x0AC8
++#define _PSB_CE_KICK_NOW                 (1 << 0)
++
++
++#define PSB_CR_BIF_DIR_LIST_BASE1        0x0C38
++
++#define PSB_CR_BIF_CTRL                  0x0C00
++#define _PSB_CB_CTRL_CLEAR_FAULT         (1 << 4)
++#define _PSB_CB_CTRL_INVALDC             (1 << 3)
++#define _PSB_CB_CTRL_FLUSH               (1 << 2)
++
++#define PSB_CR_BIF_INT_STAT              0x0C04
++
++#define PSB_CR_BIF_FAULT                 0x0C08
++#define _PSB_CBI_STAT_PF_N_RW            (1 << 14)
++#define _PSB_CBI_STAT_FAULT_SHIFT        (0)
++#define _PSB_CBI_STAT_FAULT_MASK         (0x3FFF << 0)
++#define _PSB_CBI_STAT_FAULT_CACHE        (1 << 1)
++#define _PSB_CBI_STAT_FAULT_TA           (1 << 2)
++#define _PSB_CBI_STAT_FAULT_VDM          (1 << 3)
++#define _PSB_CBI_STAT_FAULT_2D           (1 << 4)
++#define _PSB_CBI_STAT_FAULT_PBE          (1 << 5)
++#define _PSB_CBI_STAT_FAULT_TSP          (1 << 6)
++#define _PSB_CBI_STAT_FAULT_ISP          (1 << 7)
++#define _PSB_CBI_STAT_FAULT_USSEPDS      (1 << 8)
++#define _PSB_CBI_STAT_FAULT_HOST         (1 << 9)
++
++#define PSB_CR_BIF_BANK0                 0x0C78
++
++#define PSB_CR_BIF_BANK1                 0x0C7C
++
++#define PSB_CR_BIF_DIR_LIST_BASE0        0x0C84
++
++#define PSB_CR_BIF_TWOD_REQ_BASE         0x0C88
++#define PSB_CR_BIF_3D_REQ_BASE           0x0CAC
++
++#define PSB_CR_2D_SOCIF                  0x0E18
++#define _PSB_C2_SOCIF_FREESPACE_SHIFT    (0)
++#define _PSB_C2_SOCIF_FREESPACE_MASK     (0xFF << 0)
++#define _PSB_C2_SOCIF_EMPTY              (0x80 << 0)
++
++#define PSB_CR_2D_BLIT_STATUS            0x0E04
++#define _PSB_C2B_STATUS_BUSY             (1 << 24)
++#define _PSB_C2B_STATUS_COMPLETE_SHIFT   (0)
++#define _PSB_C2B_STATUS_COMPLETE_MASK    (0xFFFFFF << 0)
++
++/*
++ * 2D defs.
++ */
++
++/*
++ * 2D Slave Port Data : Block Header's Object Type
++ */
++
++#define       PSB_2D_CLIP_BH                   (0x00000000)
++#define       PSB_2D_PAT_BH                    (0x10000000)
++#define       PSB_2D_CTRL_BH                   (0x20000000)
++#define       PSB_2D_SRC_OFF_BH                (0x30000000)
++#define       PSB_2D_MASK_OFF_BH               (0x40000000)
++#define       PSB_2D_RESERVED1_BH              (0x50000000)
++#define       PSB_2D_RESERVED2_BH              (0x60000000)
++#define       PSB_2D_FENCE_BH                  (0x70000000)
++#define       PSB_2D_BLIT_BH                   (0x80000000)
++#define       PSB_2D_SRC_SURF_BH               (0x90000000)
++#define       PSB_2D_DST_SURF_BH               (0xA0000000)
++#define       PSB_2D_PAT_SURF_BH               (0xB0000000)
++#define       PSB_2D_SRC_PAL_BH                (0xC0000000)
++#define       PSB_2D_PAT_PAL_BH                (0xD0000000)
++#define       PSB_2D_MASK_SURF_BH              (0xE0000000)
++#define       PSB_2D_FLUSH_BH                  (0xF0000000)
++
++/*
++ * Clip Definition block (PSB_2D_CLIP_BH)
++ */
++#define PSB_2D_CLIPCOUNT_MAX             (1)
++#define PSB_2D_CLIPCOUNT_MASK            (0x00000000)
++#define PSB_2D_CLIPCOUNT_CLRMASK         (0xFFFFFFFF)
++#define PSB_2D_CLIPCOUNT_SHIFT           (0)
++/* clip rectangle min & max */
++#define PSB_2D_CLIP_XMAX_MASK            (0x00FFF000)
++#define PSB_2D_CLIP_XMAX_CLRMASK         (0xFF000FFF)
++#define PSB_2D_CLIP_XMAX_SHIFT           (12)
++#define PSB_2D_CLIP_XMIN_MASK            (0x00000FFF)
++#define PSB_2D_CLIP_XMIN_CLRMASK         (0x00FFF000)
++#define PSB_2D_CLIP_XMIN_SHIFT           (0)
++/* clip rectangle offset */
++#define PSB_2D_CLIP_YMAX_MASK            (0x00FFF000)
++#define PSB_2D_CLIP_YMAX_CLRMASK         (0xFF000FFF)
++#define PSB_2D_CLIP_YMAX_SHIFT           (12)
++#define PSB_2D_CLIP_YMIN_MASK            (0x00000FFF)
++#define PSB_2D_CLIP_YMIN_CLRMASK         (0x00FFF000)
++#define PSB_2D_CLIP_YMIN_SHIFT           (0)
++
++/*
++ * Pattern Control (PSB_2D_PAT_BH)
++ */
++#define PSB_2D_PAT_HEIGHT_MASK           (0x0000001F)
++#define PSB_2D_PAT_HEIGHT_SHIFT          (0)
++#define PSB_2D_PAT_WIDTH_MASK            (0x000003E0)
++#define PSB_2D_PAT_WIDTH_SHIFT           (5)
++#define PSB_2D_PAT_YSTART_MASK           (0x00007C00)
++#define PSB_2D_PAT_YSTART_SHIFT          (10)
++#define PSB_2D_PAT_XSTART_MASK           (0x000F8000)
++#define PSB_2D_PAT_XSTART_SHIFT          (15)
++
++/*
++ * 2D Control block (PSB_2D_CTRL_BH)
++ */
++/* Present Flags */
++#define PSB_2D_SRCCK_CTRL                (0x00000001)
++#define PSB_2D_DSTCK_CTRL                (0x00000002)
++#define PSB_2D_ALPHA_CTRL                (0x00000004)
++/* Colour Key Colour (SRC/DST)*/
++#define PSB_2D_CK_COL_MASK               (0xFFFFFFFF)
++#define PSB_2D_CK_COL_CLRMASK            (0x00000000)
++#define PSB_2D_CK_COL_SHIFT              (0)
++/* Colour Key Mask (SRC/DST)*/
++#define PSB_2D_CK_MASK_MASK              (0xFFFFFFFF)
++#define PSB_2D_CK_MASK_CLRMASK           (0x00000000)
++#define PSB_2D_CK_MASK_SHIFT             (0)
++/* Alpha Control (Alpha/RGB)*/
++#define PSB_2D_GBLALPHA_MASK             (0x000FF000)
++#define PSB_2D_GBLALPHA_CLRMASK          (0xFFF00FFF)
++#define PSB_2D_GBLALPHA_SHIFT            (12)
++#define PSB_2D_SRCALPHA_OP_MASK          (0x00700000)
++#define PSB_2D_SRCALPHA_OP_CLRMASK       (0xFF8FFFFF)
++#define PSB_2D_SRCALPHA_OP_SHIFT         (20)
++#define PSB_2D_SRCALPHA_OP_ONE           (0x00000000)
++#define PSB_2D_SRCALPHA_OP_SRC           (0x00100000)
++#define PSB_2D_SRCALPHA_OP_DST           (0x00200000)
++#define PSB_2D_SRCALPHA_OP_SG            (0x00300000)
++#define PSB_2D_SRCALPHA_OP_DG            (0x00400000)
++#define PSB_2D_SRCALPHA_OP_GBL           (0x00500000)
++#define PSB_2D_SRCALPHA_OP_ZERO          (0x00600000)
++#define PSB_2D_SRCALPHA_INVERT           (0x00800000)
++#define PSB_2D_SRCALPHA_INVERT_CLR       (0xFF7FFFFF)
++#define PSB_2D_DSTALPHA_OP_MASK          (0x07000000)
++#define PSB_2D_DSTALPHA_OP_CLRMASK       (0xF8FFFFFF)
++#define PSB_2D_DSTALPHA_OP_SHIFT         (24)
++#define PSB_2D_DSTALPHA_OP_ONE           (0x00000000)
++#define PSB_2D_DSTALPHA_OP_SRC           (0x01000000)
++#define PSB_2D_DSTALPHA_OP_DST           (0x02000000)
++#define PSB_2D_DSTALPHA_OP_SG            (0x03000000)
++#define PSB_2D_DSTALPHA_OP_DG            (0x04000000)
++#define PSB_2D_DSTALPHA_OP_GBL           (0x05000000)
++#define PSB_2D_DSTALPHA_OP_ZERO          (0x06000000)
++#define PSB_2D_DSTALPHA_INVERT           (0x08000000)
++#define PSB_2D_DSTALPHA_INVERT_CLR       (0xF7FFFFFF)
++
++#define PSB_2D_PRE_MULTIPLICATION_ENABLE  (0x10000000)
++#define PSB_2D_PRE_MULTIPLICATION_CLRMASK (0xEFFFFFFF)
++#define PSB_2D_ZERO_SOURCE_ALPHA_ENABLE   (0x20000000)
++#define PSB_2D_ZERO_SOURCE_ALPHA_CLRMASK  (0xDFFFFFFF)
++
++/*
++ *Source Offset (PSB_2D_SRC_OFF_BH)
++ */
++#define PSB_2D_SRCOFF_XSTART_MASK        ((0x00000FFF) << 12)
++#define PSB_2D_SRCOFF_XSTART_SHIFT       (12)
++#define PSB_2D_SRCOFF_YSTART_MASK        (0x00000FFF)
++#define PSB_2D_SRCOFF_YSTART_SHIFT       (0)
++
++/*
++ * Mask Offset (PSB_2D_MASK_OFF_BH)
++ */
++#define PSB_2D_MASKOFF_XSTART_MASK       ((0x00000FFF) << 12)
++#define PSB_2D_MASKOFF_XSTART_SHIFT      (12)
++#define PSB_2D_MASKOFF_YSTART_MASK       (0x00000FFF)
++#define PSB_2D_MASKOFF_YSTART_SHIFT      (0)
++
++/*
++ * 2D Fence (see PSB_2D_FENCE_BH): bits 0:27 are ignored
++ */
++
++/*
++ *Blit Rectangle (PSB_2D_BLIT_BH)
++ */
++
++#define PSB_2D_ROT_MASK                  (3<<25)
++#define PSB_2D_ROT_CLRMASK               (~PSB_2D_ROT_MASK)
++#define PSB_2D_ROT_NONE                  (0<<25)
++#define PSB_2D_ROT_90DEGS                (1<<25)
++#define PSB_2D_ROT_180DEGS               (2<<25)
++#define PSB_2D_ROT_270DEGS               (3<<25)
++
++#define PSB_2D_COPYORDER_MASK            (3<<23)
++#define PSB_2D_COPYORDER_CLRMASK         (~PSB_2D_COPYORDER_MASK)
++#define PSB_2D_COPYORDER_TL2BR           (0<<23)
++#define PSB_2D_COPYORDER_BR2TL           (1<<23)
++#define PSB_2D_COPYORDER_TR2BL           (2<<23)
++#define PSB_2D_COPYORDER_BL2TR           (3<<23)
++
++#define PSB_2D_DSTCK_CLRMASK             (0xFF9FFFFF)
++#define PSB_2D_DSTCK_DISABLE             (0x00000000)
++#define PSB_2D_DSTCK_PASS                (0x00200000)
++#define PSB_2D_DSTCK_REJECT              (0x00400000)
++
++#define PSB_2D_SRCCK_CLRMASK             (0xFFE7FFFF)
++#define PSB_2D_SRCCK_DISABLE             (0x00000000)
++#define PSB_2D_SRCCK_PASS                (0x00080000)
++#define PSB_2D_SRCCK_REJECT              (0x00100000)
++
++#define PSB_2D_CLIP_ENABLE               (0x00040000)
++
++#define PSB_2D_ALPHA_ENABLE              (0x00020000)
++
++#define PSB_2D_PAT_CLRMASK               (0xFFFEFFFF)
++#define PSB_2D_PAT_MASK                  (0x00010000)
++#define PSB_2D_USE_PAT                   (0x00010000)
++#define PSB_2D_USE_FILL                  (0x00000000)
++/*
++ * Tungsten Graphics note on rop codes: If rop A and rop B are
++ * identical, the mask surface will not be read and need not be
++ * set up.
++ */
++
++#define PSB_2D_ROP3B_MASK                (0x0000FF00)
++#define PSB_2D_ROP3B_CLRMASK             (0xFFFF00FF)
++#define PSB_2D_ROP3B_SHIFT               (8)
++/* rop code A */
++#define PSB_2D_ROP3A_MASK                (0x000000FF)
++#define PSB_2D_ROP3A_CLRMASK             (0xFFFFFF00)
++#define PSB_2D_ROP3A_SHIFT               (0)
++
++#define PSB_2D_ROP4_MASK                 (0x0000FFFF)
++/*
++ *    DWORD0: (Only pass if Pattern control == Use Fill Colour)
++ *    Fill Colour RGBA8888
++ */
++#define PSB_2D_FILLCOLOUR_MASK           (0xFFFFFFFF)
++#define PSB_2D_FILLCOLOUR_SHIFT          (0)
++/*
++ *    DWORD1: (Always Present)
++ *    X Start (Dest)
++ *    Y Start (Dest)
++ */
++#define PSB_2D_DST_XSTART_MASK           (0x00FFF000)
++#define PSB_2D_DST_XSTART_CLRMASK        (0xFF000FFF)
++#define PSB_2D_DST_XSTART_SHIFT          (12)
++#define PSB_2D_DST_YSTART_MASK           (0x00000FFF)
++#define PSB_2D_DST_YSTART_CLRMASK        (0xFFFFF000)
++#define PSB_2D_DST_YSTART_SHIFT          (0)
++/*
++ *    DWORD2: (Always Present)
++ *    X Size (Dest)
++ *    Y Size (Dest)
++ */
++#define PSB_2D_DST_XSIZE_MASK            (0x00FFF000)
++#define PSB_2D_DST_XSIZE_CLRMASK         (0xFF000FFF)
++#define PSB_2D_DST_XSIZE_SHIFT           (12)
++#define PSB_2D_DST_YSIZE_MASK            (0x00000FFF)
++#define PSB_2D_DST_YSIZE_CLRMASK         (0xFFFFF000)
++#define PSB_2D_DST_YSIZE_SHIFT           (0)
++
++/*
++ * Source Surface (PSB_2D_SRC_SURF_BH)
++ */
++/*
++ *      WORD 0
++ */
++
++#define PSB_2D_SRC_FORMAT_MASK           (0x00078000)
++#define PSB_2D_SRC_1_PAL                 (0x00000000)
++#define PSB_2D_SRC_2_PAL                 (0x00008000)
++#define PSB_2D_SRC_4_PAL                 (0x00010000)
++#define PSB_2D_SRC_8_PAL                 (0x00018000)
++#define PSB_2D_SRC_8_ALPHA               (0x00020000)
++#define PSB_2D_SRC_4_ALPHA               (0x00028000)
++#define PSB_2D_SRC_332RGB                (0x00030000)
++#define PSB_2D_SRC_4444ARGB              (0x00038000)
++#define PSB_2D_SRC_555RGB                (0x00040000)
++#define PSB_2D_SRC_1555ARGB              (0x00048000)
++#define PSB_2D_SRC_565RGB                (0x00050000)
++#define PSB_2D_SRC_0888ARGB              (0x00058000)
++#define PSB_2D_SRC_8888ARGB              (0x00060000)
++#define PSB_2D_SRC_8888UYVY              (0x00068000)
++#define PSB_2D_SRC_RESERVED              (0x00070000)
++#define PSB_2D_SRC_1555ARGB_LOOKUP       (0x00078000)
++
++
++#define PSB_2D_SRC_STRIDE_MASK           (0x00007FFF)
++#define PSB_2D_SRC_STRIDE_CLRMASK        (0xFFFF8000)
++#define PSB_2D_SRC_STRIDE_SHIFT          (0)
++/*
++ *  WORD 1 - Base Address
++ */
++#define PSB_2D_SRC_ADDR_MASK             (0x0FFFFFFC)
++#define PSB_2D_SRC_ADDR_CLRMASK          (0x00000003)
++#define PSB_2D_SRC_ADDR_SHIFT            (2)
++#define PSB_2D_SRC_ADDR_ALIGNSHIFT       (2)
++
++/*
++ * Pattern Surface (PSB_2D_PAT_SURF_BH)
++ */
++/*
++ *  WORD 0
++ */
++
++#define PSB_2D_PAT_FORMAT_MASK           (0x00078000)
++#define PSB_2D_PAT_1_PAL                 (0x00000000)
++#define PSB_2D_PAT_2_PAL                 (0x00008000)
++#define PSB_2D_PAT_4_PAL                 (0x00010000)
++#define PSB_2D_PAT_8_PAL                 (0x00018000)
++#define PSB_2D_PAT_8_ALPHA               (0x00020000)
++#define PSB_2D_PAT_4_ALPHA               (0x00028000)
++#define PSB_2D_PAT_332RGB                (0x00030000)
++#define PSB_2D_PAT_4444ARGB              (0x00038000)
++#define PSB_2D_PAT_555RGB                (0x00040000)
++#define PSB_2D_PAT_1555ARGB              (0x00048000)
++#define PSB_2D_PAT_565RGB                (0x00050000)
++#define PSB_2D_PAT_0888ARGB              (0x00058000)
++#define PSB_2D_PAT_8888ARGB              (0x00060000)
++
++#define PSB_2D_PAT_STRIDE_MASK           (0x00007FFF)
++#define PSB_2D_PAT_STRIDE_CLRMASK        (0xFFFF8000)
++#define PSB_2D_PAT_STRIDE_SHIFT          (0)
++/*
++ *  WORD 1 - Base Address
++ */
++#define PSB_2D_PAT_ADDR_MASK             (0x0FFFFFFC)
++#define PSB_2D_PAT_ADDR_CLRMASK          (0x00000003)
++#define PSB_2D_PAT_ADDR_SHIFT            (2)
++#define PSB_2D_PAT_ADDR_ALIGNSHIFT       (2)
++
++/*
++ * Destination Surface (PSB_2D_DST_SURF_BH)
++ */
++/*
++ * WORD 0
++ */
++
++#define PSB_2D_DST_FORMAT_MASK           (0x00078000)
++#define PSB_2D_DST_332RGB                (0x00030000)
++#define PSB_2D_DST_4444ARGB              (0x00038000)
++#define PSB_2D_DST_555RGB                (0x00040000)
++#define PSB_2D_DST_1555ARGB              (0x00048000)
++#define PSB_2D_DST_565RGB                (0x00050000)
++#define PSB_2D_DST_0888ARGB              (0x00058000)
++#define PSB_2D_DST_8888ARGB              (0x00060000)
++#define PSB_2D_DST_8888AYUV              (0x00070000)
++
++#define PSB_2D_DST_STRIDE_MASK           (0x00007FFF)
++#define PSB_2D_DST_STRIDE_CLRMASK        (0xFFFF8000)
++#define PSB_2D_DST_STRIDE_SHIFT          (0)
++/*
++ * WORD 1 - Base Address
++ */
++#define PSB_2D_DST_ADDR_MASK             (0x0FFFFFFC)
++#define PSB_2D_DST_ADDR_CLRMASK          (0x00000003)
++#define PSB_2D_DST_ADDR_SHIFT            (2)
++#define PSB_2D_DST_ADDR_ALIGNSHIFT       (2)
++
++/*
++ * Mask Surface (PSB_2D_MASK_SURF_BH)
++ */
++/*
++ * WORD 0
++ */
++#define PSB_2D_MASK_STRIDE_MASK          (0x00007FFF)
++#define PSB_2D_MASK_STRIDE_CLRMASK       (0xFFFF8000)
++#define PSB_2D_MASK_STRIDE_SHIFT         (0)
++/*
++ *  WORD 1 - Base Address
++ */
++#define PSB_2D_MASK_ADDR_MASK            (0x0FFFFFFC)
++#define PSB_2D_MASK_ADDR_CLRMASK         (0x00000003)
++#define PSB_2D_MASK_ADDR_SHIFT           (2)
++#define PSB_2D_MASK_ADDR_ALIGNSHIFT      (2)
++
++/*
++ * Source Palette (PSB_2D_SRC_PAL_BH)
++ */
++
++#define PSB_2D_SRCPAL_ADDR_SHIFT         (0)
++#define PSB_2D_SRCPAL_ADDR_CLRMASK       (0xF0000007)
++#define PSB_2D_SRCPAL_ADDR_MASK          (0x0FFFFFF8)
++#define PSB_2D_SRCPAL_BYTEALIGN          (1024)
++
++/*
++ * Pattern Palette (PSB_2D_PAT_PAL_BH)
++ */
++
++#define PSB_2D_PATPAL_ADDR_SHIFT         (0)
++#define PSB_2D_PATPAL_ADDR_CLRMASK       (0xF0000007)
++#define PSB_2D_PATPAL_ADDR_MASK          (0x0FFFFFF8)
++#define PSB_2D_PATPAL_BYTEALIGN          (1024)
++
++/*
++ * Rop3 Codes (2 LS bytes)
++ */
++
++#define PSB_2D_ROP3_SRCCOPY              (0xCCCC)
++#define PSB_2D_ROP3_PATCOPY              (0xF0F0)
++#define PSB_2D_ROP3_WHITENESS            (0xFFFF)
++#define PSB_2D_ROP3_BLACKNESS            (0x0000)
++#define PSB_2D_ROP3_SRC                  (0xCC)
++#define PSB_2D_ROP3_PAT                  (0xF0)
++#define PSB_2D_ROP3_DST                  (0xAA)
++
++
++/*
++ * Sizes.
++ */
++
++#define PSB_SCENE_HW_COOKIE_SIZE 16
++#define PSB_TA_MEM_HW_COOKIE_SIZE 16
++
++/*
++ * Scene stuff.
++ */
++
++#define PSB_NUM_HW_SCENES          2
++
++/*
++ * Scheduler completion actions.
++ */
++
++#define PSB_RASTER_BLOCK 0
++#define PSB_RASTER       1
++#define PSB_RETURN       2
++#define PSB_TA       3
++
++
++/*Power management*/
++#define PSB_PUNIT_PORT                    0x04
++#define PSB_APMBA                 0x7a
++#define PSB_APM_CMD               0x0
++#define PSB_APM_STS               0x04
++#define PSB_PWRGT_GFX_MASK        0x3
++#define PSB_PWRGT_VID_ENC_MASK            0x30
++#define PSB_PWRGT_VID_DEC_MASK            0xc
++
++#define PSB_PM_SSC                0x20
++#define PSB_PM_SSS                0x30
++#define PSB_PWRGT_DISPLAY_MASK            0xc /*on a different BA than video/gfx*/
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_reset.c b/drivers/gpu/drm/psb/psb_reset.c
+new file mode 100644
+index 0000000..04c9378
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_reset.c
+@@ -0,0 +1,484 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ * Authors:
++ * Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "psb_reg.h"
++#include "psb_intel_reg.h"
++#include "psb_scene.h"
++#include "psb_msvdx.h"
++#include "lnc_topaz.h"
++#include <linux/spinlock.h>
++#include "psb_powermgmt.h"
++#define PSB_2D_TIMEOUT_MSEC 100
++
++void psb_reset(struct drm_psb_private *dev_priv, int reset_2d)
++{
++      uint32_t val;
++
++      val = _PSB_CS_RESET_BIF_RESET |
++          _PSB_CS_RESET_DPM_RESET |
++          _PSB_CS_RESET_TA_RESET |
++          _PSB_CS_RESET_USE_RESET |
++          _PSB_CS_RESET_ISP_RESET | _PSB_CS_RESET_TSP_RESET;
++
++      if (reset_2d)
++              val |= _PSB_CS_RESET_TWOD_RESET;
++
++      PSB_WSGX32(val, PSB_CR_SOFT_RESET);
++      (void) PSB_RSGX32(PSB_CR_SOFT_RESET);
++
++      udelay(100);
++
++      PSB_WSGX32(0, PSB_CR_SOFT_RESET);
++      wmb();
++      PSB_WSGX32(PSB_RSGX32(PSB_CR_BIF_CTRL) | _PSB_CB_CTRL_CLEAR_FAULT,
++                 PSB_CR_BIF_CTRL);
++      wmb();
++      (void) PSB_RSGX32(PSB_CR_BIF_CTRL);
++
++      udelay(100);
++      PSB_WSGX32(PSB_RSGX32(PSB_CR_BIF_CTRL) & ~_PSB_CB_CTRL_CLEAR_FAULT,
++                 PSB_CR_BIF_CTRL);
++      (void) PSB_RSGX32(PSB_CR_BIF_CTRL);
++}
++
++void psb_print_pagefault(struct drm_psb_private *dev_priv)
++{
++      uint32_t val;
++      uint32_t addr;
++
++      val = PSB_RSGX32(PSB_CR_BIF_INT_STAT);
++      addr = PSB_RSGX32(PSB_CR_BIF_FAULT);
++
++      if (val) {
++              if (val & _PSB_CBI_STAT_PF_N_RW)
++                      DRM_ERROR("Poulsbo MMU page fault:\n");
++              else
++                      DRM_ERROR("Poulsbo MMU read / write "
++                                "protection fault:\n");
++
++              if (val & _PSB_CBI_STAT_FAULT_CACHE)
++                      DRM_ERROR("\tCache requestor.\n");
++              if (val & _PSB_CBI_STAT_FAULT_TA)
++                      DRM_ERROR("\tTA requestor.\n");
++              if (val & _PSB_CBI_STAT_FAULT_VDM)
++                      DRM_ERROR("\tVDM requestor.\n");
++              if (val & _PSB_CBI_STAT_FAULT_2D)
++                      DRM_ERROR("\t2D requestor.\n");
++              if (val & _PSB_CBI_STAT_FAULT_PBE)
++                      DRM_ERROR("\tPBE requestor.\n");
++              if (val & _PSB_CBI_STAT_FAULT_TSP)
++                      DRM_ERROR("\tTSP requestor.\n");
++              if (val & _PSB_CBI_STAT_FAULT_ISP)
++                      DRM_ERROR("\tISP requestor.\n");
++              if (val & _PSB_CBI_STAT_FAULT_USSEPDS)
++                      DRM_ERROR("\tUSSEPDS requestor.\n");
++              if (val & _PSB_CBI_STAT_FAULT_HOST)
++                      DRM_ERROR("\tHost requestor.\n");
++
++              DRM_ERROR("\tMMU failing address is 0x%08x.\n",
++                        (unsigned) addr);
++      }
++}
++
++void psb_schedule_watchdog(struct drm_psb_private *dev_priv)
++{
++      struct timer_list *wt = &dev_priv->watchdog_timer;
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&dev_priv->watchdog_lock, irq_flags);
++      if (dev_priv->timer_available && !timer_pending(wt)) {
++              wt->expires = jiffies + PSB_WATCHDOG_DELAY;
++              add_timer(wt);
++      }
++      spin_unlock_irqrestore(&dev_priv->watchdog_lock, irq_flags);
++}
++
++#if 0
++static void psb_seq_lockup_idle(struct drm_psb_private *dev_priv,
++                              unsigned int engine, int *lockup,
++                              int *idle)
++{
++      uint32_t received_seq;
++
++      received_seq = dev_priv->comm[engine << 4];
++      spin_lock(&dev_priv->sequence_lock);
++      *idle = (received_seq == dev_priv->sequence[engine]);
++      spin_unlock(&dev_priv->sequence_lock);
++
++      if (*idle) {
++              dev_priv->idle[engine] = 1;
++              *lockup = 0;
++              return;
++      }
++
++      if (dev_priv->idle[engine]) {
++              dev_priv->idle[engine] = 0;
++              dev_priv->last_sequence[engine] = received_seq;
++              *lockup = 0;
++              return;
++      }
++
++      *lockup = (dev_priv->last_sequence[engine] == received_seq);
++}
++
++#endif
++static void psb_watchdog_func(unsigned long data)
++{
++      struct drm_psb_private *dev_priv = (struct drm_psb_private *) data;
++      int lockup;
++      int msvdx_lockup;
++      int msvdx_idle;
++      int lockup_2d;
++      int idle_2d;
++      int idle;
++      unsigned long irq_flags;
++
++      psb_scheduler_lockup(dev_priv, &lockup, &idle);
++      psb_msvdx_lockup(dev_priv, &msvdx_lockup, &msvdx_idle);
++
++#if 0
++      psb_seq_lockup_idle(dev_priv, PSB_ENGINE_2D, &lockup_2d, &idle_2d);
++#else
++      lockup_2d = false;
++      idle_2d = true;
++#endif
++      if (lockup || msvdx_lockup || lockup_2d) {
++              spin_lock_irqsave(&dev_priv->watchdog_lock, irq_flags);
++              dev_priv->timer_available = 0;
++              spin_unlock_irqrestore(&dev_priv->watchdog_lock,
++                                     irq_flags);
++              if (lockup) {
++                      /*comment out this to aviod illegal access for ospm*/
++                      /*psb_print_pagefault(dev_priv);*/
++                      schedule_work(&dev_priv->watchdog_wq);
++              }
++              if (msvdx_lockup)
++                      schedule_work(&dev_priv->msvdx_watchdog_wq);
++      }
++      if (!idle || !msvdx_idle || !idle_2d)
++              psb_schedule_watchdog(dev_priv);
++}
++
++void psb_msvdx_flush_cmd_queue(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct psb_msvdx_cmd_queue *msvdx_cmd;
++      struct list_head *list, *next;
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      /*Flush the msvdx cmd queue and signal all fences in the queue */
++      list_for_each_safe(list, next, &msvdx_priv->msvdx_queue) {
++              msvdx_cmd =
++                  list_entry(list, struct psb_msvdx_cmd_queue, head);
++              PSB_DEBUG_GENERAL("MSVDXQUE: flushing sequence:%d\n",
++                                msvdx_cmd->sequence);
++              msvdx_priv->msvdx_current_sequence = msvdx_cmd->sequence;
++              psb_fence_error(dev, PSB_ENGINE_VIDEO,
++                              msvdx_priv->msvdx_current_sequence,
++                              _PSB_FENCE_TYPE_EXE, DRM_CMD_HANG);
++              list_del(list);
++              kfree(msvdx_cmd->cmd);
++              kfree(msvdx_cmd
++                       );
++      }
++}
++
++static void psb_msvdx_reset_wq(struct work_struct *work)
++{
++      struct drm_psb_private *dev_priv =
++          container_of(work, struct drm_psb_private, msvdx_watchdog_wq);
++      struct msvdx_private *msvdx_priv = dev_priv->msvdx_private;
++
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++
++      mutex_lock(&msvdx_priv->msvdx_mutex);
++      msvdx_priv->msvdx_needs_reset = 1;
++      msvdx_priv->msvdx_current_sequence++;
++      PSB_DEBUG_GENERAL
++          ("MSVDXFENCE: incremented msvdx_current_sequence to :%d\n",
++           msvdx_priv->msvdx_current_sequence);
++
++      psb_fence_error(scheduler->dev, PSB_ENGINE_VIDEO,
++                      msvdx_priv->msvdx_current_sequence,
++                      _PSB_FENCE_TYPE_EXE, DRM_CMD_HANG);
++
++      spin_lock_irqsave(&dev_priv->watchdog_lock, irq_flags);
++      dev_priv->timer_available = 1;
++      spin_unlock_irqrestore(&dev_priv->watchdog_lock, irq_flags);
++
++      spin_lock_irqsave(&msvdx_priv->msvdx_lock, irq_flags);
++      psb_msvdx_flush_cmd_queue(scheduler->dev);
++      spin_unlock_irqrestore(&msvdx_priv->msvdx_lock, irq_flags);
++
++      psb_schedule_watchdog(dev_priv);
++      mutex_unlock(&msvdx_priv->msvdx_mutex);
++}
++
++static int psb_xhw_mmu_reset(struct drm_psb_private *dev_priv)
++{
++      struct psb_xhw_buf buf;
++      uint32_t bif_ctrl;
++
++      INIT_LIST_HEAD(&buf.head);
++      psb_mmu_set_pd_context(psb_mmu_get_default_pd(dev_priv->mmu), 0);
++      bif_ctrl = PSB_RSGX32(PSB_CR_BIF_CTRL);
++      PSB_WSGX32(bif_ctrl |
++                 _PSB_CB_CTRL_CLEAR_FAULT |
++                 _PSB_CB_CTRL_INVALDC, PSB_CR_BIF_CTRL);
++      (void) PSB_RSGX32(PSB_CR_BIF_CTRL);
++      udelay(100);
++      PSB_WSGX32(bif_ctrl, PSB_CR_BIF_CTRL);
++      (void) PSB_RSGX32(PSB_CR_BIF_CTRL);
++      return psb_xhw_reset_dpm(dev_priv, &buf);
++}
++
++/*
++ * Block command submission and reset hardware and schedulers.
++ */
++
++static void psb_reset_wq(struct work_struct *work)
++{
++      struct drm_psb_private *dev_priv =
++          container_of(work, struct drm_psb_private, watchdog_wq);
++      int lockup_2d;
++      int idle_2d;
++      unsigned long irq_flags;
++      int ret;
++      int reset_count = 0;
++      struct psb_xhw_buf buf;
++      uint32_t xhw_lockup;
++
++      /*
++       * Block command submission.
++       */
++      PSB_DEBUG_PM("ioctl: psb_pl_reference\n");
++
++      if (!powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, false)) {
++              DRM_ERROR("lock up hapeens when island off \n");
++              return;
++      }
++      mutex_lock(&dev_priv->reset_mutex);
++
++      INIT_LIST_HEAD(&buf.head);
++      ret = psb_xhw_check_lockup(dev_priv, &buf, &xhw_lockup);
++      if (likely(ret == 0)) {
++              if (psb_extend_timeout(dev_priv, xhw_lockup) == 0) {
++                      /*
++                       * no lockup, just re-schedule
++                       */
++                      spin_lock_irqsave(&dev_priv->watchdog_lock,
++                                        irq_flags);
++                      dev_priv->timer_available = 1;
++                      spin_unlock_irqrestore(&dev_priv->watchdog_lock,
++                                             irq_flags);
++                      psb_schedule_watchdog(dev_priv);
++                      mutex_unlock(&dev_priv->reset_mutex);
++                      return;
++              }
++      } else {
++              DRM_ERROR("Check lockup returned %d\n", ret);
++      }
++#if 0
++      mdelay(PSB_2D_TIMEOUT_MSEC);
++
++      psb_seq_lockup_idle(dev_priv, PSB_ENGINE_2D, &lockup_2d, &idle_2d);
++
++      if (lockup_2d) {
++              uint32_t seq_2d;
++              spin_lock(&dev_priv->sequence_lock);
++              seq_2d = dev_priv->sequence[PSB_ENGINE_2D];
++              spin_unlock(&dev_priv->sequence_lock);
++              psb_fence_error(dev_priv->scheduler.dev,
++                              PSB_ENGINE_2D,
++                              seq_2d, DRM_FENCE_TYPE_EXE, -EBUSY);
++              DRM_INFO("Resetting 2D engine.\n");
++      }
++
++      psb_reset(dev_priv, lockup_2d);
++#else
++      (void) lockup_2d;
++      (void) idle_2d;
++      psb_reset(dev_priv, 0);
++#endif
++      (void) psb_xhw_mmu_reset(dev_priv);
++      DRM_INFO("Resetting scheduler.\n");
++      psb_scheduler_pause(dev_priv);
++      psb_scheduler_reset(dev_priv, -EBUSY);
++      psb_scheduler_ta_mem_check(dev_priv);
++
++      while (dev_priv->ta_mem &&
++             !dev_priv->force_ta_mem_load && ++reset_count < 10) {
++              struct ttm_fence_object *fence;
++
++              /*
++               * TA memory is currently fenced so offsets
++               * are valid. Reload offsets into the dpm now.
++               */
++
++              struct psb_xhw_buf buf;
++              INIT_LIST_HEAD(&buf.head);
++
++              mdelay(100);
++
++              fence = dev_priv->ta_mem->ta_memory->sync_obj;
++
++              DRM_INFO("Reloading TA memory at offset "
++                       "0x%08lx to 0x%08lx seq %d\n",
++                       dev_priv->ta_mem->ta_memory->offset,
++                       dev_priv->ta_mem->ta_memory->offset +
++                       (dev_priv->ta_mem->ta_memory->num_pages << PAGE_SHIFT),
++                      fence->sequence);
++
++              fence = dev_priv->ta_mem->hw_data->sync_obj;
++
++              DRM_INFO("Reloading TA HW memory at offset "
++                       "0x%08lx to 0x%08lx seq %u\n",
++                       dev_priv->ta_mem->hw_data->offset,
++                       dev_priv->ta_mem->hw_data->offset +
++                       (dev_priv->ta_mem->hw_data->num_pages << PAGE_SHIFT),
++                      fence->sequence);
++
++              ret = psb_xhw_ta_mem_load(dev_priv, &buf,
++                                        PSB_TA_MEM_FLAG_TA |
++                                        PSB_TA_MEM_FLAG_RASTER |
++                                        PSB_TA_MEM_FLAG_HOSTA |
++                                        PSB_TA_MEM_FLAG_HOSTD |
++                                        PSB_TA_MEM_FLAG_INIT,
++                                        dev_priv->ta_mem->ta_memory->
++                                        offset,
++                                        dev_priv->ta_mem->hw_data->
++                                        offset,
++                                        dev_priv->ta_mem->hw_cookie);
++              if (!ret)
++                      break;
++
++              DRM_INFO("Reloading TA memory failed. Retrying.\n");
++              psb_reset(dev_priv, 0);
++              (void) psb_xhw_mmu_reset(dev_priv);
++      }
++
++      psb_scheduler_restart(dev_priv);
++      spin_lock_irqsave(&dev_priv->watchdog_lock, irq_flags);
++      dev_priv->timer_available = 1;
++      spin_unlock_irqrestore(&dev_priv->watchdog_lock, irq_flags);
++      mutex_unlock(&dev_priv->reset_mutex);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++}
++
++void psb_watchdog_init(struct drm_psb_private *dev_priv)
++{
++      struct timer_list *wt = &dev_priv->watchdog_timer;
++      unsigned long irq_flags;
++
++      spin_lock_init(&dev_priv->watchdog_lock);
++      spin_lock_irqsave(&dev_priv->watchdog_lock, irq_flags);
++      init_timer(wt);
++      INIT_WORK(&dev_priv->watchdog_wq, &psb_reset_wq);
++      INIT_WORK(&dev_priv->msvdx_watchdog_wq, &psb_msvdx_reset_wq);
++      wt->data = (unsigned long) dev_priv;
++      wt->function = &psb_watchdog_func;
++      dev_priv->timer_available = 1;
++      spin_unlock_irqrestore(&dev_priv->watchdog_lock, irq_flags);
++}
++
++void psb_watchdog_takedown(struct drm_psb_private *dev_priv)
++{
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&dev_priv->watchdog_lock, irq_flags);
++      dev_priv->timer_available = 0;
++      spin_unlock_irqrestore(&dev_priv->watchdog_lock, irq_flags);
++      (void) del_timer_sync(&dev_priv->watchdog_timer);
++}
++
++static void psb_lid_timer_func(unsigned long data)
++{
++      struct drm_psb_private * dev_priv = (struct drm_psb_private *)data;
++      struct drm_device * dev = (struct drm_device *)dev_priv->dev;
++      struct timer_list * lid_timer = &dev_priv->lid_timer;
++      unsigned long irq_flags;
++      u32 * lid_state = dev_priv->lid_state;
++      u32 pp_status;
++
++      if(*lid_state == dev_priv->lid_last_state)
++              goto lid_timer_schedule;
++
++      if((*lid_state) & 0x01) {
++              /*lid state is open*/
++              REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) | POWER_TARGET_ON);
++              do {
++                      pp_status = REG_READ(PP_STATUS);
++              } while((pp_status & PP_ON) == 0);
++              
++              /*FIXME: should be backlight level before*/
++              psb_intel_lvds_set_brightness(dev, 100);
++      } else {
++              psb_intel_lvds_set_brightness(dev, 0);
++              
++              REG_WRITE(PP_CONTROL, REG_READ(PP_CONTROL) & ~POWER_TARGET_ON);
++                do {
++                        pp_status = REG_READ(PP_STATUS);
++                } while((pp_status & PP_ON) == 0);
++      }
++              //printk(KERN_INFO"%s: lid: closed\n", __FUNCTION__);
++
++      dev_priv->lid_last_state =  *lid_state; 
++
++lid_timer_schedule:
++      spin_lock_irqsave(&dev_priv->lid_lock, irq_flags);
++      if(!timer_pending(lid_timer)){
++              lid_timer->expires = jiffies + PSB_LID_DELAY;
++              add_timer(lid_timer);
++      }
++      spin_unlock_irqrestore(&dev_priv->lid_lock, irq_flags);
++}
++
++void psb_lid_timer_init(struct drm_psb_private *dev_priv)
++{
++      struct timer_list * lid_timer = &dev_priv->lid_timer;
++      unsigned long irq_flags;
++              
++      spin_lock_init(&dev_priv->lid_lock);
++      spin_lock_irqsave(&dev_priv->lid_lock, irq_flags);
++      
++      init_timer(lid_timer);
++      
++      lid_timer->data = (unsigned long)dev_priv;
++      lid_timer->function = psb_lid_timer_func;
++      lid_timer->expires = jiffies + PSB_LID_DELAY;
++      
++      add_timer(lid_timer);
++      spin_unlock_irqrestore(&dev_priv->lid_lock, irq_flags);
++}
++
++void psb_lid_timer_takedown(struct drm_psb_private * dev_priv)
++{
++      del_timer_sync(&dev_priv->lid_timer);
++}
++
+diff --git a/drivers/gpu/drm/psb/psb_scene.c b/drivers/gpu/drm/psb/psb_scene.c
+new file mode 100644
+index 0000000..42b823d
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_scene.c
+@@ -0,0 +1,523 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics.com>
++ */
++
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "psb_scene.h"
++#include "psb_powermgmt.h"
++
++void psb_clear_scene_atomic(struct psb_scene *scene)
++{
++      int i;
++      struct page *page;
++      void *v;
++
++      for (i = 0; i < scene->clear_num_pages; ++i) {
++              page = ttm_tt_get_page(scene->hw_data->ttm,
++                                     scene->clear_p_start + i);
++              if (in_irq())
++                      v = kmap_atomic(page, KM_IRQ0);
++              else
++                      v = kmap_atomic(page, KM_USER0);
++
++              memset(v, 0, PAGE_SIZE);
++
++              if (in_irq())
++                      kunmap_atomic(v, KM_IRQ0);
++              else
++                      kunmap_atomic(v, KM_USER0);
++      }
++}
++
++int psb_clear_scene(struct psb_scene *scene)
++{
++      struct ttm_bo_kmap_obj bmo;
++      bool is_iomem;
++      void *addr;
++
++      int ret = ttm_bo_kmap(scene->hw_data, scene->clear_p_start,
++                            scene->clear_num_pages, &bmo);
++
++      PSB_DEBUG_RENDER("Scene clear.\n");
++      if (ret)
++              return ret;
++
++      addr = ttm_kmap_obj_virtual(&bmo, &is_iomem);
++      BUG_ON(is_iomem);
++      memset(addr, 0, scene->clear_num_pages << PAGE_SHIFT);
++      ttm_bo_kunmap(&bmo);
++
++      return 0;
++}
++
++static void psb_destroy_scene(struct kref *kref)
++{
++      struct psb_scene *scene =
++          container_of(kref, struct psb_scene, kref);
++
++      PSB_DEBUG_RENDER("Scene destroy.\n");
++      psb_scheduler_remove_scene_refs(scene);
++      ttm_bo_unref(&scene->hw_data);
++      kfree(scene);
++}
++
++void psb_scene_unref(struct psb_scene **p_scene)
++{
++      struct psb_scene *scene = *p_scene;
++
++      PSB_DEBUG_RENDER("Scene unref.\n");
++      *p_scene = NULL;
++      kref_put(&scene->kref, &psb_destroy_scene);
++}
++
++struct psb_scene *psb_scene_ref(struct psb_scene *src)
++{
++      PSB_DEBUG_RENDER("Scene ref.\n");
++      kref_get(&src->kref);
++      return src;
++}
++
++static struct psb_scene *psb_alloc_scene(struct drm_device *dev,
++                                       uint32_t w, uint32_t h)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct ttm_bo_device *bdev = &dev_priv->bdev;
++      int ret = -EINVAL;
++      struct psb_scene *scene;
++      uint32_t bo_size;
++      struct psb_xhw_buf buf;
++
++      PSB_DEBUG_RENDER("Alloc scene w %u h %u msaa %u\n", w & 0xffff, h,
++                       w >> 16);
++
++      scene = kzalloc(sizeof(*scene), GFP_KERNEL);
++
++      if (!scene) {
++              DRM_ERROR("Out of memory allocating scene object.\n");
++              return NULL;
++      }
++
++      scene->dev = dev;
++      scene->w = w;
++      scene->h = h;
++      scene->hw_scene = NULL;
++      kref_init(&scene->kref);
++
++      INIT_LIST_HEAD(&buf.head);
++      ret = psb_xhw_scene_info(dev_priv, &buf, scene->w, scene->h,
++                               scene->hw_cookie, &bo_size,
++                               &scene->clear_p_start,
++                               &scene->clear_num_pages);
++      if (ret)
++              goto out_err;
++
++      ret = ttm_buffer_object_create(bdev, bo_size, ttm_bo_type_kernel,
++                                     DRM_PSB_FLAG_MEM_MMU |
++                                     TTM_PL_FLAG_CACHED,
++                                     0, 0, 1, NULL, &scene->hw_data);
++      if (ret)
++              goto out_err;
++
++      return scene;
++out_err:
++      kfree(scene);
++      return NULL;
++}
++
++int psb_validate_scene_pool(struct psb_context *context,
++                          struct psb_scene_pool *pool,
++                          uint32_t w,
++                          uint32_t h,
++                          int final_pass, struct psb_scene **scene_p)
++{
++      struct drm_device *dev = pool->dev;
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct psb_scene *scene = pool->scenes[pool->cur_scene];
++      int ret;
++      unsigned long irq_flags;
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      uint32_t bin_pt_offset;
++      uint32_t bin_param_offset;
++
++      PSB_DEBUG_RENDER("Validate scene pool. Scene %u\n",
++                       pool->cur_scene);
++
++      if (unlikely(!dev_priv->ta_mem)) {
++              dev_priv->ta_mem =
++                  psb_alloc_ta_mem(dev, dev_priv->ta_mem_pages);
++              if (!dev_priv->ta_mem)
++                      return -ENOMEM;
++
++              bin_pt_offset = ~0;
++              bin_param_offset = ~0;
++      } else {
++              bin_pt_offset = dev_priv->ta_mem->hw_data->offset;
++              bin_param_offset = dev_priv->ta_mem->ta_memory->offset;
++      }
++
++      pool->w = w;
++      pool->h = h;
++      if (scene && (scene->w != pool->w || scene->h != pool->h)) {
++              spin_lock_irqsave(&scheduler->lock, irq_flags);
++              if (scene->flags & PSB_SCENE_FLAG_DIRTY) {
++                      spin_unlock_irqrestore(&scheduler->lock,
++                                             irq_flags);
++                      DRM_ERROR("Trying to resize a dirty scene.\n");
++                      return -EINVAL;
++              }
++              spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++              psb_scene_unref(&pool->scenes[pool->cur_scene]);
++              scene = NULL;
++      }
++
++      if (!scene) {
++              pool->scenes[pool->cur_scene] = scene =
++                  psb_alloc_scene(pool->dev, pool->w, pool->h);
++
++              if (!scene)
++                      return -ENOMEM;
++
++              scene->flags = PSB_SCENE_FLAG_CLEARED;
++      }
++
++      ret = psb_validate_kernel_buffer(context, scene->hw_data,
++                                       PSB_ENGINE_TA,
++                                       PSB_BO_FLAG_SCENE |
++                                       PSB_GPU_ACCESS_READ |
++                                       PSB_GPU_ACCESS_WRITE, 0);
++      if (unlikely(ret != 0))
++              return ret;
++
++      /*
++       * FIXME: We need atomic bit manipulation here for the
++       * scheduler. For now use the spinlock.
++       */
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      if (!(scene->flags & PSB_SCENE_FLAG_CLEARED)) {
++              spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++              PSB_DEBUG_RENDER("Waiting to clear scene memory.\n");
++              mutex_lock(&scene->hw_data->mutex);
++
++              ret = ttm_bo_wait(scene->hw_data, 0, 1, 0);
++              mutex_unlock(&scene->hw_data->mutex);
++              if (ret)
++                      return ret;
++
++              ret = psb_clear_scene(scene);
++
++              if (ret)
++                      return ret;
++              spin_lock_irqsave(&scheduler->lock, irq_flags);
++              scene->flags |= PSB_SCENE_FLAG_CLEARED;
++      }
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++
++      ret = psb_validate_kernel_buffer(context, dev_priv->ta_mem->hw_data,
++                                       PSB_ENGINE_TA,
++                                       PSB_BO_FLAG_SCENE |
++                                       PSB_GPU_ACCESS_READ |
++                                       PSB_GPU_ACCESS_WRITE, 0);
++      if (unlikely(ret != 0))
++              return ret;
++
++      ret =
++          psb_validate_kernel_buffer(context,
++                                     dev_priv->ta_mem->ta_memory,
++                                     PSB_ENGINE_TA,
++                                     PSB_BO_FLAG_SCENE |
++                                     PSB_GPU_ACCESS_READ |
++                                     PSB_GPU_ACCESS_WRITE, 0);
++
++      if (unlikely(ret != 0))
++              return ret;
++
++      if (unlikely(bin_param_offset !=
++                   dev_priv->ta_mem->ta_memory->offset ||
++                   bin_pt_offset !=
++                   dev_priv->ta_mem->hw_data->offset ||
++                   dev_priv->force_ta_mem_load)) {
++
++              struct psb_xhw_buf buf;
++
++              INIT_LIST_HEAD(&buf.head);
++              ret = psb_xhw_ta_mem_load(dev_priv, &buf,
++                                        PSB_TA_MEM_FLAG_TA |
++                                        PSB_TA_MEM_FLAG_RASTER |
++                                        PSB_TA_MEM_FLAG_HOSTA |
++                                        PSB_TA_MEM_FLAG_HOSTD |
++                                        PSB_TA_MEM_FLAG_INIT,
++                                        dev_priv->ta_mem->ta_memory->
++                                        offset,
++                                        dev_priv->ta_mem->hw_data->
++                                        offset,
++                                        dev_priv->ta_mem->hw_cookie);
++              if (ret)
++                      return ret;
++
++              dev_priv->force_ta_mem_load = 0;
++      }
++
++      if (final_pass) {
++
++              /*
++               * Clear the scene on next use. Advance the scene counter.
++               */
++
++              spin_lock_irqsave(&scheduler->lock, irq_flags);
++              scene->flags &= ~PSB_SCENE_FLAG_CLEARED;
++              spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++              pool->cur_scene = (pool->cur_scene + 1) % pool->num_scenes;
++      }
++
++      *scene_p = psb_scene_ref(scene);
++      return 0;
++}
++
++static void psb_scene_pool_destroy(struct kref *kref)
++{
++      struct psb_scene_pool *pool =
++          container_of(kref, struct psb_scene_pool, kref);
++      int i;
++      PSB_DEBUG_RENDER("Scene pool destroy.\n");
++
++      for (i = 0; i < pool->num_scenes; ++i) {
++              PSB_DEBUG_RENDER("scenes %d is 0x%08lx\n", i,
++                               (unsigned long) pool->scenes[i]);
++              if (pool->scenes[i])
++                      psb_scene_unref(&pool->scenes[i]);
++      }
++
++      kfree(pool);
++}
++
++void psb_scene_pool_unref(struct psb_scene_pool **p_pool)
++{
++      struct psb_scene_pool *pool = *p_pool;
++
++      PSB_DEBUG_RENDER("Scene pool unref\n");
++      *p_pool = NULL;
++      kref_put(&pool->kref, &psb_scene_pool_destroy);
++}
++
++struct psb_scene_pool *psb_scene_pool_ref(struct psb_scene_pool *src)
++{
++      kref_get(&src->kref);
++      return src;
++}
++
++/*
++ * Callback for base object manager.
++ */
++
++static void psb_scene_pool_release(struct ttm_base_object **p_base)
++{
++      struct ttm_base_object *base = *p_base;
++      struct psb_scene_pool *pool =
++          container_of(base, struct psb_scene_pool, base);
++      *p_base = NULL;
++
++      psb_scene_pool_unref(&pool);
++}
++
++struct psb_scene_pool *psb_scene_pool_lookup(struct drm_file *file_priv,
++                                           uint32_t handle,
++                                           int check_owner)
++{
++      struct ttm_object_file *tfile = psb_fpriv(file_priv)->tfile;
++      struct ttm_base_object *base;
++      struct psb_scene_pool *pool;
++
++
++      base = ttm_base_object_lookup(tfile, handle);
++      if (!base || (base->object_type != PSB_USER_OBJECT_SCENE_POOL)) {
++              DRM_ERROR("Could not find scene pool object 0x%08x\n",
++                        handle);
++              return NULL;
++      }
++
++      if (check_owner && tfile != base->tfile && !base->shareable) {
++              ttm_base_object_unref(&base);
++              return NULL;
++      }
++
++      pool = container_of(base, struct psb_scene_pool, base);
++      kref_get(&pool->kref);
++      ttm_base_object_unref(&base);
++      return pool;
++}
++
++struct psb_scene_pool *psb_scene_pool_alloc(struct drm_file *file_priv,
++                                          int shareable,
++                                          uint32_t num_scenes,
++                                          uint32_t w, uint32_t h)
++{
++      struct ttm_object_file *tfile = psb_fpriv(file_priv)->tfile;
++      struct drm_device *dev = file_priv->minor->dev;
++      struct psb_scene_pool *pool;
++      int ret;
++
++      PSB_DEBUG_RENDER("Scene pool alloc\n");
++      pool = kzalloc(sizeof(*pool), GFP_KERNEL);
++      if (!pool) {
++              DRM_ERROR("Out of memory allocating scene pool object.\n");
++              return NULL;
++      }
++      pool->w = w;
++      pool->h = h;
++      pool->dev = dev;
++      pool->num_scenes = num_scenes;
++      kref_init(&pool->kref);
++
++      /*
++       * The base object holds a reference.
++       */
++
++      kref_get(&pool->kref);
++      ret = ttm_base_object_init(tfile, &pool->base, shareable,
++                                 PSB_USER_OBJECT_SCENE_POOL,
++                                 &psb_scene_pool_release, NULL);
++      if (unlikely(ret != 0))
++              goto out_err;
++
++      return pool;
++out_err:
++      kfree(pool);
++      return NULL;
++}
++
++/*
++ * Code to support multiple ta memory buffers.
++ */
++
++static void psb_ta_mem_destroy(struct kref *kref)
++{
++      struct psb_ta_mem *ta_mem =
++          container_of(kref, struct psb_ta_mem, kref);
++
++      ttm_bo_unref(&ta_mem->hw_data);
++      ttm_bo_unref(&ta_mem->ta_memory);
++      kfree(ta_mem);
++}
++
++void psb_ta_mem_unref(struct psb_ta_mem **p_ta_mem)
++{
++      struct psb_ta_mem *ta_mem = *p_ta_mem;
++      *p_ta_mem = NULL;
++      kref_put(&ta_mem->kref, psb_ta_mem_destroy);
++}
++
++struct psb_ta_mem *psb_ta_mem_ref(struct psb_ta_mem *src)
++{
++      kref_get(&src->kref);
++      return src;
++}
++
++struct psb_ta_mem *psb_alloc_ta_mem(struct drm_device *dev, uint32_t pages)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct ttm_bo_device *bdev = &dev_priv->bdev;
++      int ret = -EINVAL;
++      struct psb_ta_mem *ta_mem;
++      uint32_t bo_size;
++      uint32_t ta_min_size;
++      struct psb_xhw_buf buf;
++
++      INIT_LIST_HEAD(&buf.head);
++
++      ta_mem = kzalloc(sizeof(*ta_mem), GFP_KERNEL);
++
++      if (!ta_mem) {
++              DRM_ERROR("Out of memory allocating parameter memory.\n");
++              return NULL;
++      }
++
++      kref_init(&ta_mem->kref);
++      ret = psb_xhw_ta_mem_info(dev_priv, &buf, pages,
++                                ta_mem->hw_cookie,
++                                &bo_size,
++                                &ta_min_size);
++      if (ret == -ENOMEM) {
++              DRM_ERROR("Parameter memory size is too small.\n");
++              DRM_INFO("Attempted to use %u kiB of parameter memory.\n",
++                       (unsigned int) (pages * (PAGE_SIZE / 1024)));
++              DRM_INFO("The Xpsb driver thinks this is too small and\n");
++              DRM_INFO("suggests %u kiB. Check the psb DRM\n",
++                       (unsigned int)(ta_min_size / 1024));
++              DRM_INFO("\"ta_mem_size\" parameter!\n");
++      }
++      if (ret)
++              goto out_err0;
++
++      ret = ttm_buffer_object_create(bdev, bo_size, ttm_bo_type_kernel,
++                                     DRM_PSB_FLAG_MEM_MMU,
++                                     0, 0, 0, NULL,
++                                     &ta_mem->hw_data);
++      if (ret)
++              goto out_err0;
++
++      bo_size = pages * PAGE_SIZE;
++      ret =
++          ttm_buffer_object_create(bdev, bo_size,
++                                   ttm_bo_type_kernel,
++                                   DRM_PSB_FLAG_MEM_RASTGEOM,
++                                   0,
++                                   1024 * 1024 >> PAGE_SHIFT, 0,
++                                   NULL,
++                                   &ta_mem->ta_memory);
++      if (ret)
++              goto out_err1;
++
++      return ta_mem;
++out_err1:
++      ttm_bo_unref(&ta_mem->hw_data);
++out_err0:
++      kfree(ta_mem);
++      return NULL;
++}
++
++int drm_psb_scene_unref_ioctl(struct drm_device *dev,
++                            void *data, struct drm_file *file_priv)
++{
++      struct ttm_object_file *tfile = psb_fpriv(file_priv)->tfile;
++      struct drm_psb_scene *scene = (struct drm_psb_scene *) data;
++      int ret = 0;
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      if (!scene->handle_valid)
++              return 0;
++      powermgmt_using_hw_begin(dev->pdev, PSB_GRAPHICS_ISLAND, true);
++
++      ret =
++          ttm_ref_object_base_unref(tfile, scene->handle, TTM_REF_USAGE);
++      if (unlikely(ret != 0))
++              DRM_ERROR("Could not unreference a scene object.\n");
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
+diff --git a/drivers/gpu/drm/psb/psb_scene.h b/drivers/gpu/drm/psb/psb_scene.h
+new file mode 100644
+index 0000000..2a4f8bc
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_scene.h
+@@ -0,0 +1,119 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics.com>
++ */
++
++#ifndef _PSB_SCENE_H_
++#define _PSB_SCENE_H_
++
++#include "ttm/ttm_object.h"
++
++#define PSB_USER_OBJECT_SCENE_POOL    ttm_driver_type0
++#define PSB_USER_OBJECT_TA_MEM        ttm_driver_type1
++#define PSB_MAX_NUM_SCENES            8
++
++struct psb_hw_scene;
++struct psb_hw_ta_mem;
++
++struct psb_scene_pool {
++      struct ttm_base_object base;
++      struct drm_device *dev;
++      struct kref kref;
++      uint32_t w;
++      uint32_t h;
++      uint32_t cur_scene;
++      struct psb_scene *scenes[PSB_MAX_NUM_SCENES];
++      uint32_t num_scenes;
++};
++
++struct psb_scene {
++      struct drm_device *dev;
++      struct kref kref;
++      uint32_t hw_cookie[PSB_SCENE_HW_COOKIE_SIZE];
++      uint32_t bo_size;
++      uint32_t w;
++      uint32_t h;
++      struct psb_ta_mem *ta_mem;
++      struct psb_hw_scene *hw_scene;
++      struct ttm_buffer_object *hw_data;
++      uint32_t flags;
++      uint32_t clear_p_start;
++      uint32_t clear_num_pages;
++};
++
++#if 0
++struct psb_scene_entry {
++      struct list_head head;
++      struct psb_scene *scene;
++};
++
++struct psb_user_scene {
++      struct ttm_base_object base;
++      struct drm_device *dev;
++};
++
++#endif
++
++struct psb_ta_mem {
++      struct ttm_base_object base;
++      struct drm_device *dev;
++      struct kref kref;
++      uint32_t hw_cookie[PSB_TA_MEM_HW_COOKIE_SIZE];
++      uint32_t bo_size;
++      struct ttm_buffer_object *ta_memory;
++      struct ttm_buffer_object *hw_data;
++      int is_deallocating;
++      int deallocating_scheduled;
++};
++
++extern struct psb_scene_pool *psb_scene_pool_alloc(struct drm_file *priv,
++                                                 int shareable,
++                                                 uint32_t num_scenes,
++                                                 uint32_t w, uint32_t h);
++extern void psb_scene_pool_unref(struct psb_scene_pool **pool);
++extern struct psb_scene_pool *psb_scene_pool_lookup(struct drm_file
++                                                  *priv,
++                                                  uint32_t handle,
++                                                  int check_owner);
++extern int psb_validate_scene_pool(struct psb_context *context,
++                                 struct psb_scene_pool *pool,
++                                 uint32_t w,
++                                 uint32_t h, int final_pass,
++                                 struct psb_scene **scene_p);
++extern void psb_scene_unref(struct psb_scene **scene);
++extern struct psb_scene *psb_scene_ref(struct psb_scene *src);
++extern int drm_psb_scene_unref_ioctl(struct drm_device *dev,
++                                   void *data,
++                                   struct drm_file *file_priv);
++
++static inline uint32_t psb_scene_pool_handle(struct psb_scene_pool *pool)
++{
++      return pool->base.hash.key;
++}
++
++extern struct psb_ta_mem *psb_alloc_ta_mem(struct drm_device *dev,
++                                         uint32_t pages);
++extern struct psb_ta_mem *psb_ta_mem_ref(struct psb_ta_mem *src);
++extern void psb_ta_mem_unref(struct psb_ta_mem **ta_mem);
++
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_schedule.c b/drivers/gpu/drm/psb/psb_schedule.c
+new file mode 100644
+index 0000000..9c4e2cd
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_schedule.c
+@@ -0,0 +1,1593 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics.com>
++ */
++
++#include <drm/drmP.h>
++#include "psb_drm.h"
++#include "psb_drv.h"
++#include "psb_reg.h"
++#include "psb_scene.h"
++#include "ttm/ttm_execbuf_util.h"
++
++#define PSB_ALLOWED_RASTER_RUNTIME (DRM_HZ * 20)
++#define PSB_ALLOWED_TA_RUNTIME (DRM_HZ * 20)
++#define PSB_RASTER_TIMEOUT (DRM_HZ / 10)
++#define PSB_TA_TIMEOUT (DRM_HZ / 10)
++
++#undef PSB_SOFTWARE_WORKAHEAD
++
++#ifdef PSB_STABLE_SETTING
++
++/*
++ * Software blocks completely while the engines are working so there can be no
++ * overlap.
++ */
++
++#define PSB_WAIT_FOR_RASTER_COMPLETION
++#define PSB_WAIT_FOR_TA_COMPLETION
++
++#elif defined(PSB_PARANOID_SETTING)
++/*
++ * Software blocks "almost" while the engines are working so there can be no
++ * overlap.
++ */
++
++#define PSB_WAIT_FOR_RASTER_COMPLETION
++#define PSB_WAIT_FOR_TA_COMPLETION
++#define PSB_BE_PARANOID
++
++#elif defined(PSB_SOME_OVERLAP_BUT_LOCKUP)
++/*
++ * Software leaps ahead while the rasterizer is running and prepares
++ * a new ta job that can be scheduled before the rasterizer has
++ * finished.
++ */
++
++#define PSB_WAIT_FOR_TA_COMPLETION
++
++#elif defined(PSB_SOFTWARE_WORKAHEAD)
++/*
++ * Don't sync, but allow software to work ahead. and queue a number of jobs.
++ * But block overlapping in the scheduler.
++ */
++
++#define PSB_BLOCK_OVERLAP
++#define ONLY_ONE_JOB_IN_RASTER_QUEUE
++
++#endif
++
++/*
++ * Avoid pixelbe pagefaults on C0.
++ */
++#if 0
++#define PSB_BLOCK_OVERLAP
++#endif
++
++static void psb_dispatch_ta(struct drm_psb_private *dev_priv,
++                          struct psb_scheduler *scheduler,
++                          uint32_t reply_flag);
++static void psb_dispatch_raster(struct drm_psb_private *dev_priv,
++                              struct psb_scheduler *scheduler,
++                              uint32_t reply_flag);
++
++#ifdef FIX_TG_16
++
++void psb_2d_atomic_unlock(struct drm_psb_private *dev_priv);
++static int psb_check_2d_idle(struct drm_psb_private *dev_priv);
++
++#endif
++
++void psb_scheduler_lockup(struct drm_psb_private *dev_priv,
++                        int *lockup, int *idle)
++{
++      unsigned long irq_flags;
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++
++      *lockup = 0;
++      *idle = 1;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++
++      if (scheduler->current_task[PSB_SCENE_ENGINE_TA] != NULL &&
++          time_after_eq(jiffies, scheduler->ta_end_jiffies)) {
++              *lockup = 1;
++      }
++      if (!*lockup
++          && (scheduler->current_task[PSB_SCENE_ENGINE_RASTER] != NULL)
++          && time_after_eq(jiffies, scheduler->raster_end_jiffies)) {
++              *lockup = 1;
++      }
++      if (!*lockup)
++              *idle = scheduler->idle;
++
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++}
++
++static inline void psb_set_idle(struct psb_scheduler *scheduler)
++{
++      scheduler->idle =
++          (scheduler->current_task[PSB_SCENE_ENGINE_RASTER] == NULL) &&
++          (scheduler->current_task[PSB_SCENE_ENGINE_TA] == NULL);
++      if (scheduler->idle)
++              wake_up(&scheduler->idle_queue);
++}
++
++/*
++ * Call with the scheduler spinlock held.
++ * Assigns a scene context to either the ta or the rasterizer,
++ * flushing out other scenes to memory if necessary.
++ */
++
++static int psb_set_scene_fire(struct psb_scheduler *scheduler,
++                            struct psb_scene *scene,
++                            int engine, struct psb_task *task)
++{
++      uint32_t flags = 0;
++      struct psb_hw_scene *hw_scene;
++      struct drm_device *dev = scene->dev;
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++
++      hw_scene = scene->hw_scene;
++      if (hw_scene && hw_scene->last_scene == scene) {
++
++              /*
++               * Reuse the last hw scene context and delete it from the
++               * free list.
++               */
++
++              PSB_DEBUG_RENDER("Reusing hw scene %d.\n",
++                               hw_scene->context_number);
++              if (scene->flags & PSB_SCENE_FLAG_DIRTY) {
++
++                      /*
++                       * No hw context initialization to be done.
++                       */
++
++                      flags |= PSB_SCENE_FLAG_SETUP_ONLY;
++              }
++
++              list_del_init(&hw_scene->head);
++
++      } else {
++              struct list_head *list;
++              hw_scene = NULL;
++
++              /*
++               * Grab a new hw scene context.
++               */
++
++              list_for_each(list, &scheduler->hw_scenes) {
++                      hw_scene =
++                          list_entry(list, struct psb_hw_scene, head);
++                      break;
++              }
++              BUG_ON(!hw_scene);
++              PSB_DEBUG_RENDER("New hw scene %d.\n",
++                               hw_scene->context_number);
++
++              list_del_init(list);
++      }
++      scene->hw_scene = hw_scene;
++      hw_scene->last_scene = scene;
++
++      flags |= PSB_SCENE_FLAG_SETUP;
++
++      /*
++       * Switch context and setup the engine.
++       */
++
++      return psb_xhw_scene_bind_fire(dev_priv,
++                                     &task->buf,
++                                     task->flags,
++                                     hw_scene->context_number,
++                                     scene->hw_cookie,
++                                     task->oom_cmds,
++                                     task->oom_cmd_size,
++                                     scene->hw_data->offset,
++                                     engine, flags | scene->flags);
++}
++
++static inline void psb_report_fence(struct drm_psb_private *dev_priv,
++                                  struct psb_scheduler *scheduler,
++                                  uint32_t class,
++                                  uint32_t sequence,
++                                  uint32_t type, int call_handler)
++{
++      struct psb_scheduler_seq *seq = &scheduler->seq[type];
++      struct ttm_fence_device *fdev = &dev_priv->fdev;
++      struct ttm_fence_class_manager *fc = &fdev->fence_class[PSB_ENGINE_TA];
++      unsigned long irq_flags;
++
++      /**
++       * Block racing poll_ta calls, that take the lock in write mode.
++       */
++
++      read_lock_irqsave(&fc->lock, irq_flags);
++      seq->sequence = sequence;
++      seq->reported = 0;
++      read_unlock_irqrestore(&fc->lock, irq_flags);
++
++      if (call_handler)
++              psb_fence_handler(scheduler->dev, class);
++}
++
++static void psb_schedule_raster(struct drm_psb_private *dev_priv,
++                              struct psb_scheduler *scheduler);
++
++static void psb_schedule_ta(struct drm_psb_private *dev_priv,
++                          struct psb_scheduler *scheduler)
++{
++      struct psb_task *task = NULL;
++      struct list_head *list, *next;
++      int pushed_raster_task = 0;
++
++      PSB_DEBUG_RENDER("schedule ta\n");
++
++      if (scheduler->idle_count != 0)
++              return;
++
++      if (scheduler->current_task[PSB_SCENE_ENGINE_TA] != NULL)
++              return;
++
++      if (scheduler->ta_state)
++              return;
++
++      /*
++       * Skip the ta stage for rasterization-only
++       * tasks. They arrive here to make sure we're rasterizing
++       * tasks in the correct order.
++       */
++
++      list_for_each_safe(list, next, &scheduler->ta_queue) {
++              task = list_entry(list, struct psb_task, head);
++              if (task->task_type != psb_raster_task && task->task_type != psb_flip_task)
++                      break;
++              
++              if (task->task_type == psb_flip_task) {
++                              list_del_init(list);
++                              list_add_tail(list, &scheduler->raster_queue);                                  
++                              task = NULL;
++              }               
++              else {
++                              list_del_init(list);
++                              list_add_tail(list, &scheduler->raster_queue);
++                              psb_report_fence(dev_priv, scheduler, task->engine,
++                                                               task->sequence,
++                                                               _PSB_FENCE_TA_DONE_SHIFT, 1);
++                              task = NULL;
++                              pushed_raster_task = 1;
++              }
++      }
++
++      if (pushed_raster_task)
++              psb_schedule_raster(dev_priv, scheduler);
++
++      if (!task)
++              return;
++
++      /*
++       * Still waiting for a vistest?
++       */
++
++      if (scheduler->feedback_task == task)
++              return;
++
++#ifdef ONLY_ONE_JOB_IN_RASTER_QUEUE
++
++      /*
++       * Block ta from trying to use both hardware contexts
++       * without the rasterizer starting to render from one of them.
++       */
++
++      if (!list_empty(&scheduler->raster_queue))
++              return;
++
++#endif
++
++#ifdef PSB_BLOCK_OVERLAP
++      /*
++       * Make sure rasterizer isn't doing anything.
++       */
++      if (scheduler->current_task[PSB_SCENE_ENGINE_RASTER] != NULL)
++              return;
++#endif
++      if (list_empty(&scheduler->hw_scenes))
++              return;
++
++#ifdef FIX_TG_16
++      if (psb_check_2d_idle(dev_priv))
++              return;
++#endif
++
++      list_del_init(&task->head);
++      if (task->flags & PSB_FIRE_FLAG_XHW_OOM)
++              scheduler->ta_state = 1;
++
++      scheduler->current_task[PSB_SCENE_ENGINE_TA] = task;
++      scheduler->idle = 0;
++      scheduler->ta_end_jiffies = jiffies + PSB_TA_TIMEOUT;
++      scheduler->total_ta_jiffies = 0;
++
++      task->reply_flags = (task->flags & PSB_FIRE_FLAG_XHW_OOM) ?
++          0x00000000 : PSB_RF_FIRE_TA;
++
++      (void) psb_reg_submit(dev_priv, task->ta_cmds, task->ta_cmd_size);
++      psb_set_scene_fire(scheduler, task->scene, PSB_SCENE_ENGINE_TA,
++                         task);
++      psb_schedule_watchdog(dev_priv);
++}
++
++static int psb_fire_raster(struct psb_scheduler *scheduler,
++                         struct psb_task *task)
++{
++      struct drm_device *dev = scheduler->dev;
++      struct drm_psb_private *dev_priv = (struct drm_psb_private *)
++          dev->dev_private;
++
++      PSB_DEBUG_RENDER("Fire raster %d\n", task->sequence);
++
++      return psb_xhw_fire_raster(dev_priv, &task->buf, task->flags);
++}
++
++/*
++ * Take the first rasterization task from the hp raster queue or from the
++ * raster queue and fire the rasterizer.
++ */
++
++static void psb_schedule_raster(struct drm_psb_private *dev_priv,
++                              struct psb_scheduler *scheduler)
++{
++      struct psb_task *task;
++      struct list_head *list;
++      int pipe;
++
++      if (scheduler->idle_count != 0)
++              return;
++
++      if (scheduler->current_task[PSB_SCENE_ENGINE_RASTER] != NULL) {
++              PSB_DEBUG_RENDER("Raster busy.\n");
++              return;
++      }
++#ifdef PSB_BLOCK_OVERLAP
++      if (scheduler->current_task[PSB_SCENE_ENGINE_TA] != NULL) {
++              PSB_DEBUG_RENDER("TA busy.\n");
++              return;
++      }
++#endif
++
++      if (!list_empty(&scheduler->hp_raster_queue))
++              list = scheduler->hp_raster_queue.next;
++      else if (!list_empty(&scheduler->raster_queue))
++              list = scheduler->raster_queue.next;
++      else {
++              PSB_DEBUG_RENDER("Nothing in list\n");
++              return;
++      }
++
++      task = list_entry(list, struct psb_task, head);
++
++      if (task->task_type == psb_flip_task) {
++              for (pipe=0; pipe<2; pipe++) {
++                      if (dev_priv->pipe_active[pipe] == 1)
++                              psb_flip_set_base(dev_priv, pipe);
++              }
++              list_del_init(list);
++              task = NULL;
++              psb_schedule_raster(dev_priv, scheduler);
++              return;
++      }
++
++      /*
++       * Sometimes changing ZLS format requires an ISP reset.
++       * Doesn't seem to consume too much time.
++       */
++
++      if (task->scene)
++              PSB_WSGX32(_PSB_CS_RESET_ISP_RESET, PSB_CR_SOFT_RESET);
++
++      scheduler->current_task[PSB_SCENE_ENGINE_RASTER] = task;
++
++      list_del_init(list);
++      scheduler->idle = 0;
++      scheduler->raster_end_jiffies = jiffies + PSB_RASTER_TIMEOUT;
++      scheduler->total_raster_jiffies = 0;
++
++      if (task->scene)
++              PSB_WSGX32(0, PSB_CR_SOFT_RESET);
++
++      (void) psb_reg_submit(dev_priv, task->raster_cmds,
++                            task->raster_cmd_size);
++
++      if (task->scene) {
++              task->reply_flags = (task->flags & PSB_FIRE_FLAG_XHW_OOM) ?
++                  0x00000000 : PSB_RF_FIRE_RASTER;
++              psb_set_scene_fire(scheduler,
++                                 task->scene, PSB_SCENE_ENGINE_RASTER,
++                                 task);
++      } else {
++              task->reply_flags = PSB_RF_DEALLOC | PSB_RF_FIRE_RASTER;
++              psb_fire_raster(scheduler, task);
++      }
++      psb_schedule_watchdog(dev_priv);
++}
++
++int psb_extend_timeout(struct drm_psb_private *dev_priv,
++                     uint32_t xhw_lockup)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++      int ret = -EBUSY;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++
++      if (scheduler->current_task[PSB_SCENE_ENGINE_TA] != NULL &&
++          time_after_eq(jiffies, scheduler->ta_end_jiffies)) {
++              if (xhw_lockup & PSB_LOCKUP_TA) {
++                      goto out_unlock;
++              } else {
++                      scheduler->total_ta_jiffies +=
++                              jiffies - scheduler->ta_end_jiffies +
++                              PSB_TA_TIMEOUT;
++                      if (scheduler->total_ta_jiffies >
++                          PSB_ALLOWED_TA_RUNTIME)
++                              goto out_unlock;
++                      scheduler->ta_end_jiffies = jiffies + PSB_TA_TIMEOUT;
++              }
++      }
++      if (scheduler->current_task[PSB_SCENE_ENGINE_RASTER] != NULL &&
++          time_after_eq(jiffies, scheduler->raster_end_jiffies)) {
++              if (xhw_lockup & PSB_LOCKUP_RASTER) {
++                      goto out_unlock;
++              } else {
++                      scheduler->total_raster_jiffies +=
++                              jiffies - scheduler->raster_end_jiffies +
++                              PSB_RASTER_TIMEOUT;
++                      if (scheduler->total_raster_jiffies >
++                          PSB_ALLOWED_RASTER_RUNTIME)
++                              goto out_unlock;
++                      scheduler->raster_end_jiffies =
++                              jiffies + PSB_RASTER_TIMEOUT;
++              }
++      }
++
++      ret = 0;
++
++out_unlock:
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++      return ret;
++}
++
++/*
++ * TA done handler.
++ */
++
++static void psb_ta_done(struct drm_psb_private *dev_priv,
++                      struct psb_scheduler *scheduler)
++{
++      struct psb_task *task =
++          scheduler->current_task[PSB_SCENE_ENGINE_TA];
++      struct psb_scene *scene = task->scene;
++
++      PSB_DEBUG_RENDER("TA done %u\n", task->sequence);
++
++      switch (task->ta_complete_action) {
++      case PSB_RASTER_BLOCK:
++              scheduler->ta_state = 1;
++              scene->flags |=
++                  (PSB_SCENE_FLAG_DIRTY | PSB_SCENE_FLAG_COMPLETE);
++              list_add_tail(&task->head, &scheduler->raster_queue);
++              break;
++      case PSB_RASTER:
++              scene->flags |=
++                  (PSB_SCENE_FLAG_DIRTY | PSB_SCENE_FLAG_COMPLETE);
++              list_add_tail(&task->head, &scheduler->raster_queue);
++              break;
++      case PSB_RETURN:
++              scheduler->ta_state = 0;
++              scene->flags |= PSB_SCENE_FLAG_DIRTY;
++              list_add_tail(&scene->hw_scene->head,
++                            &scheduler->hw_scenes);
++
++              break;
++      }
++
++      scheduler->current_task[PSB_SCENE_ENGINE_TA] = NULL;
++
++#ifdef FIX_TG_16
++      psb_2d_atomic_unlock(dev_priv);
++#endif
++
++      if (task->ta_complete_action != PSB_RASTER_BLOCK)
++              psb_report_fence(dev_priv, scheduler, task->engine,
++                               task->sequence,
++                               _PSB_FENCE_TA_DONE_SHIFT, 1);
++
++      psb_schedule_raster(dev_priv, scheduler);
++      psb_schedule_ta(dev_priv, scheduler);
++      psb_set_idle(scheduler);
++
++      if (task->ta_complete_action != PSB_RETURN)
++              return;
++
++      list_add_tail(&task->head, &scheduler->task_done_queue);
++      schedule_delayed_work(&scheduler->wq, 0);
++}
++
++/*
++ * Rasterizer done handler.
++ */
++
++static void psb_raster_done(struct drm_psb_private *dev_priv,
++                          struct psb_scheduler *scheduler)
++{
++      struct psb_task *task =
++          scheduler->current_task[PSB_SCENE_ENGINE_RASTER];
++      struct psb_scene *scene = task->scene;
++      uint32_t complete_action = task->raster_complete_action;
++
++      PSB_DEBUG_RENDER("Raster done %u\n", task->sequence);
++
++      scheduler->current_task[PSB_SCENE_ENGINE_RASTER] = NULL;
++
++      if (complete_action != PSB_RASTER)
++              psb_schedule_raster(dev_priv, scheduler);
++
++      if (scene) {
++              if (task->feedback.page) {
++                      if (unlikely(scheduler->feedback_task)) {
++                              /*
++                               * This should never happen, since the previous
++                               * feedback query will return before the next
++                               * raster task is fired.
++                               */
++                              DRM_ERROR("Feedback task busy.\n");
++                      }
++                      scheduler->feedback_task = task;
++                      psb_xhw_vistest(dev_priv, &task->buf);
++              }
++              switch (complete_action) {
++              case PSB_RETURN:
++                      scene->flags &=
++                          ~(PSB_SCENE_FLAG_DIRTY |
++                            PSB_SCENE_FLAG_COMPLETE);
++                      list_add_tail(&scene->hw_scene->head,
++                                    &scheduler->hw_scenes);
++                      psb_report_fence(dev_priv, scheduler, task->engine,
++                                       task->sequence,
++                                       _PSB_FENCE_SCENE_DONE_SHIFT, 1);
++                      if (task->flags & PSB_FIRE_FLAG_XHW_OOM)
++                              scheduler->ta_state = 0;
++
++                      break;
++              case PSB_RASTER:
++                      list_add(&task->head, &scheduler->raster_queue);
++                      task->raster_complete_action = PSB_RETURN;
++                      psb_schedule_raster(dev_priv, scheduler);
++                      break;
++              case PSB_TA:
++                      list_add(&task->head, &scheduler->ta_queue);
++                      scheduler->ta_state = 0;
++                      task->raster_complete_action = PSB_RETURN;
++                      task->ta_complete_action = PSB_RASTER;
++                      break;
++
++              }
++      }
++      psb_schedule_ta(dev_priv, scheduler);
++      psb_set_idle(scheduler);
++
++      if (complete_action == PSB_RETURN) {
++              if (task->scene == NULL) {
++                      psb_report_fence(dev_priv, scheduler, task->engine,
++                                       task->sequence,
++                                       _PSB_FENCE_RASTER_DONE_SHIFT, 1);
++              }
++              if (!task->feedback.page) {
++                      list_add_tail(&task->head,
++                                    &scheduler->task_done_queue);
++                      schedule_delayed_work(&scheduler->wq, 0);
++              }
++      }
++}
++
++void psb_scheduler_pause(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      scheduler->idle_count++;
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++}
++
++void psb_scheduler_restart(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      if (--scheduler->idle_count == 0) {
++              psb_schedule_ta(dev_priv, scheduler);
++              psb_schedule_raster(dev_priv, scheduler);
++      }
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++}
++
++int psb_scheduler_idle(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++      int ret;
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      ret = scheduler->idle_count != 0 && scheduler->idle;
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++      return ret;
++}
++
++int psb_scheduler_finished(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++      int ret;
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      ret = (scheduler->idle &&
++             list_empty(&scheduler->raster_queue) &&
++             list_empty(&scheduler->ta_queue) &&
++             list_empty(&scheduler->hp_raster_queue));
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++      return ret;
++}
++
++static void psb_ta_oom(struct drm_psb_private *dev_priv,
++                     struct psb_scheduler *scheduler)
++{
++
++      struct psb_task *task =
++          scheduler->current_task[PSB_SCENE_ENGINE_TA];
++      if (!task)
++              return;
++
++      if (task->aborting)
++              return;
++      task->aborting = 1;
++
++      DRM_INFO("Info: TA out of parameter memory.\n");
++
++      (void) psb_xhw_ta_oom(dev_priv, &task->buf,
++                            task->scene->hw_cookie);
++}
++
++static void psb_ta_oom_reply(struct drm_psb_private *dev_priv,
++                           struct psb_scheduler *scheduler)
++{
++
++      struct psb_task *task =
++          scheduler->current_task[PSB_SCENE_ENGINE_TA];
++      uint32_t flags;
++      if (!task)
++              return;
++
++      psb_xhw_ta_oom_reply(dev_priv, &task->buf,
++                           task->scene->hw_cookie,
++                           &task->ta_complete_action,
++                           &task->raster_complete_action, &flags);
++      task->flags |= flags;
++      task->aborting = 0;
++      psb_dispatch_ta(dev_priv, scheduler, PSB_RF_OOM_REPLY);
++}
++
++static void psb_ta_hw_scene_freed(struct drm_psb_private *dev_priv,
++                                struct psb_scheduler *scheduler)
++{
++      DRM_ERROR("TA hw scene freed.\n");
++}
++
++static void psb_vistest_reply(struct drm_psb_private *dev_priv,
++                            struct psb_scheduler *scheduler)
++{
++      struct psb_task *task = scheduler->feedback_task;
++      uint8_t *feedback_map;
++      uint32_t add;
++      uint32_t cur;
++      struct drm_psb_vistest *vistest;
++      int i;
++
++      scheduler->feedback_task = NULL;
++      if (!task) {
++              DRM_ERROR("No Poulsbo feedback task.\n");
++              return;
++      }
++      if (!task->feedback.page) {
++              DRM_ERROR("No Poulsbo feedback page.\n");
++              goto out;
++      }
++
++      if (in_irq())
++              feedback_map = kmap_atomic(task->feedback.page, KM_IRQ0);
++      else
++              feedback_map = kmap_atomic(task->feedback.page, KM_USER0);
++
++      /*
++       * Loop over all requested vistest components here.
++       * Only one (vistest) currently.
++       */
++
++      vistest = (struct drm_psb_vistest *)
++          (feedback_map + task->feedback.offset);
++
++      for (i = 0; i < PSB_HW_FEEDBACK_SIZE; ++i) {
++              add = task->buf.arg.arg.feedback[i];
++              cur = vistest->vt[i];
++
++              /*
++               * Vistest saturates.
++               */
++
++              vistest->vt[i] = (cur + add < cur) ? ~0 : cur + add;
++      }
++      if (in_irq())
++              kunmap_atomic(feedback_map, KM_IRQ0);
++      else
++              kunmap_atomic(feedback_map, KM_USER0);
++out:
++      psb_report_fence(dev_priv, scheduler, task->engine, task->sequence,
++                       _PSB_FENCE_FEEDBACK_SHIFT, 1);
++
++      if (list_empty(&task->head)) {
++              list_add_tail(&task->head, &scheduler->task_done_queue);
++              schedule_delayed_work(&scheduler->wq, 0);
++      } else
++              psb_schedule_ta(dev_priv, scheduler);
++}
++
++static void psb_ta_fire_reply(struct drm_psb_private *dev_priv,
++                            struct psb_scheduler *scheduler)
++{
++      struct psb_task *task =
++          scheduler->current_task[PSB_SCENE_ENGINE_TA];
++
++      psb_xhw_fire_reply(dev_priv, &task->buf, task->scene->hw_cookie);
++
++      psb_dispatch_ta(dev_priv, scheduler, PSB_RF_FIRE_TA);
++}
++
++static void psb_raster_fire_reply(struct drm_psb_private *dev_priv,
++                                struct psb_scheduler *scheduler)
++{
++      struct psb_task *task =
++          scheduler->current_task[PSB_SCENE_ENGINE_RASTER];
++      uint32_t reply_flags;
++
++      if (!task) {
++              DRM_ERROR("Null task.\n");
++              return;
++      }
++
++      task->raster_complete_action = task->buf.arg.arg.sb.rca;
++      psb_xhw_fire_reply(dev_priv, &task->buf, task->scene->hw_cookie);
++
++      reply_flags = PSB_RF_FIRE_RASTER;
++      if (task->raster_complete_action == PSB_RASTER)
++              reply_flags |= PSB_RF_DEALLOC;
++
++      psb_dispatch_raster(dev_priv, scheduler, reply_flags);
++}
++
++static int psb_user_interrupt(struct drm_psb_private *dev_priv,
++                            struct psb_scheduler *scheduler)
++{
++      uint32_t type;
++      int ret;
++      unsigned long irq_flags;
++
++      /*
++       * Xhw cannot write directly to the comm page, so
++       * do it here. Firmware would have written directly.
++       */
++
++      ret = psb_xhw_handler(dev_priv);
++      if (unlikely(ret))
++              return ret;
++
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      type = dev_priv->comm[PSB_COMM_USER_IRQ];
++      dev_priv->comm[PSB_COMM_USER_IRQ] = 0;
++      if (dev_priv->comm[PSB_COMM_USER_IRQ_LOST]) {
++              dev_priv->comm[PSB_COMM_USER_IRQ_LOST] = 0;
++              DRM_ERROR("Lost Poulsbo hardware event.\n");
++      }
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++
++      if (type == 0)
++              return 0;
++
++      switch (type) {
++      case PSB_UIRQ_VISTEST:
++              psb_vistest_reply(dev_priv, scheduler);
++              break;
++      case PSB_UIRQ_OOM_REPLY:
++              psb_ta_oom_reply(dev_priv, scheduler);
++              break;
++      case PSB_UIRQ_FIRE_TA_REPLY:
++              psb_ta_fire_reply(dev_priv, scheduler);
++              break;
++      case PSB_UIRQ_FIRE_RASTER_REPLY:
++              psb_raster_fire_reply(dev_priv, scheduler);
++              break;
++      default:
++              DRM_ERROR("Unknown Poulsbo hardware event. %d\n", type);
++      }
++      return 0;
++}
++
++int psb_forced_user_interrupt(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++      int ret;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      ret = psb_user_interrupt(dev_priv, scheduler);
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++      return ret;
++}
++
++static void psb_dispatch_ta(struct drm_psb_private *dev_priv,
++                          struct psb_scheduler *scheduler,
++                          uint32_t reply_flag)
++{
++      struct psb_task *task =
++          scheduler->current_task[PSB_SCENE_ENGINE_TA];
++      uint32_t flags;
++      uint32_t mask;
++
++      if (unlikely(!task))
++              return;
++
++      task->reply_flags |= reply_flag;
++      flags = task->reply_flags;
++      mask = PSB_RF_FIRE_TA;
++
++      if (!(flags & mask))
++              return;
++
++      mask = PSB_RF_TA_DONE;
++      if ((flags & mask) == mask) {
++              task->reply_flags &= ~mask;
++              psb_ta_done(dev_priv, scheduler);
++      }
++
++      mask = PSB_RF_OOM;
++      if ((flags & mask) == mask) {
++              task->reply_flags &= ~mask;
++              psb_ta_oom(dev_priv, scheduler);
++      }
++
++      mask = (PSB_RF_OOM_REPLY | PSB_RF_TERMINATE);
++      if ((flags & mask) == mask) {
++              task->reply_flags &= ~mask;
++              psb_ta_done(dev_priv, scheduler);
++      }
++}
++
++static void psb_dispatch_raster(struct drm_psb_private *dev_priv,
++                              struct psb_scheduler *scheduler,
++                              uint32_t reply_flag)
++{
++      struct psb_task *task =
++          scheduler->current_task[PSB_SCENE_ENGINE_RASTER];
++      uint32_t flags;
++      uint32_t mask;
++
++      if (unlikely(!task))
++              return;
++
++      task->reply_flags |= reply_flag;
++      flags = task->reply_flags;
++      mask = PSB_RF_FIRE_RASTER;
++
++      if (!(flags & mask))
++              return;
++
++      /*
++       * For rasterizer-only tasks, don't report fence done here,
++       * as this is time consuming and the rasterizer wants a new
++       * task immediately. For other tasks, the hardware is probably
++       * still busy deallocating TA memory, so we can report
++       * fence done in parallel.
++       */
++
++      if (task->raster_complete_action == PSB_RETURN &&
++          (reply_flag & PSB_RF_RASTER_DONE) && task->scene != NULL) {
++              psb_report_fence(dev_priv, scheduler, task->engine,
++                               task->sequence,
++                               _PSB_FENCE_RASTER_DONE_SHIFT, 1);
++      }
++
++      mask = PSB_RF_RASTER_DONE | PSB_RF_DEALLOC;
++      if ((flags & mask) == mask) {
++              task->reply_flags &= ~mask;
++              psb_raster_done(dev_priv, scheduler);
++      }
++}
++
++void psb_scheduler_handler(struct drm_psb_private *dev_priv,
++                         uint32_t status)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++
++      spin_lock(&scheduler->lock);
++
++      if (status & _PSB_CE_PIXELBE_END_RENDER) {
++              psb_dispatch_raster(dev_priv, scheduler,
++                                  PSB_RF_RASTER_DONE);
++      }
++      if (status & _PSB_CE_DPM_3D_MEM_FREE)
++              psb_dispatch_raster(dev_priv, scheduler, PSB_RF_DEALLOC);
++
++      if (status & _PSB_CE_TA_FINISHED)
++              psb_dispatch_ta(dev_priv, scheduler, PSB_RF_TA_DONE);
++
++      if (status & _PSB_CE_TA_TERMINATE)
++              psb_dispatch_ta(dev_priv, scheduler, PSB_RF_TERMINATE);
++
++      if (status & (_PSB_CE_DPM_REACHED_MEM_THRESH |
++                    _PSB_CE_DPM_OUT_OF_MEMORY_GBL |
++                    _PSB_CE_DPM_OUT_OF_MEMORY_MT)) {
++              psb_dispatch_ta(dev_priv, scheduler, PSB_RF_OOM);
++      }
++      if (status & _PSB_CE_DPM_TA_MEM_FREE)
++              psb_ta_hw_scene_freed(dev_priv, scheduler);
++
++      if (status & _PSB_CE_SW_EVENT)
++              psb_user_interrupt(dev_priv, scheduler);
++
++      spin_unlock(&scheduler->lock);
++}
++
++static void psb_free_task_wq(struct work_struct *work)
++{
++      struct psb_scheduler *scheduler =
++          container_of(work, struct psb_scheduler, wq.work);
++
++      struct list_head *list, *next;
++      unsigned long irq_flags;
++      struct psb_task *task;
++
++      if (!mutex_trylock(&scheduler->task_wq_mutex))
++              return;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      list_for_each_safe(list, next, &scheduler->task_done_queue) {
++              task = list_entry(list, struct psb_task, head);
++              list_del_init(list);
++              spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++
++              PSB_DEBUG_RENDER("Checking Task %d: Scene 0x%08lx, "
++                               "Feedback bo 0x%08lx, done %d\n",
++                               task->sequence,
++                               (unsigned long) task->scene,
++                               (unsigned long) task->feedback.bo,
++                               atomic_read(&task->buf.done));
++
++              if (task->scene) {
++                      PSB_DEBUG_RENDER("Unref scene %d\n",
++                                       task->sequence);
++                      psb_scene_unref(&task->scene);
++                      if (task->feedback.bo) {
++                              PSB_DEBUG_RENDER("Unref feedback bo %d\n",
++                                               task->sequence);
++                              ttm_bo_unref(&task->feedback.bo);
++                      }
++              }
++
++              if (atomic_read(&task->buf.done)) {
++                      PSB_DEBUG_RENDER("Deleting task %d\n",
++                                       task->sequence);
++                      kfree(task);
++                      task = NULL;
++              }
++              spin_lock_irqsave(&scheduler->lock, irq_flags);
++              if (task != NULL)
++                      list_add(list, &scheduler->task_done_queue);
++      }
++      if (!list_empty(&scheduler->task_done_queue)) {
++              PSB_DEBUG_RENDER("Rescheduling wq\n");
++              schedule_delayed_work(&scheduler->wq, 1);
++      }
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++      if (list_empty(&scheduler->task_done_queue) &&
++          drm_psb_ospm && IS_MRST(scheduler->dev)) {
++              psb_try_power_down_sgx(scheduler->dev);
++      }
++      mutex_unlock(&scheduler->task_wq_mutex);
++}
++
++static void psb_powerdown_topaz(struct work_struct *work)
++{
++      struct psb_scheduler *scheduler =
++          container_of(work, struct psb_scheduler, topaz_suspend_wq.work);
++
++      if (!mutex_trylock(&scheduler->topaz_power_mutex))
++              return;
++
++      psb_try_power_down_topaz(scheduler->dev);
++      mutex_unlock(&scheduler->topaz_power_mutex);
++}
++
++static void psb_powerdown_msvdx(struct work_struct *work)
++{
++      struct psb_scheduler *scheduler =
++          container_of(work, struct psb_scheduler, msvdx_suspend_wq.work);
++
++      if (!mutex_trylock(&scheduler->msvdx_power_mutex))
++              return;
++
++      psb_try_power_down_msvdx(scheduler->dev);
++      mutex_unlock(&scheduler->msvdx_power_mutex);
++}
++
++/*
++ * Check if any of the tasks in the queues is using a scene.
++ * In that case we know the TA memory buffer objects are
++ * fenced and will not be evicted until that fence is signaled.
++ */
++
++void psb_scheduler_ta_mem_check(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++      struct psb_task *task;
++      struct psb_task *next_task;
++
++      dev_priv->force_ta_mem_load = 1;
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      list_for_each_entry_safe(task, next_task, &scheduler->ta_queue,
++                               head) {
++              if (task->scene) {
++                      dev_priv->force_ta_mem_load = 0;
++                      break;
++              }
++      }
++      list_for_each_entry_safe(task, next_task, &scheduler->raster_queue,
++                               head) {
++              if (task->scene) {
++                      dev_priv->force_ta_mem_load = 0;
++                      break;
++              }
++      }
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++}
++
++void psb_scheduler_reset(struct drm_psb_private *dev_priv,
++                       int error_condition)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long wait_jiffies;
++      unsigned long cur_jiffies;
++      struct psb_task *task;
++      struct psb_task *next_task;
++      unsigned long irq_flags;
++
++      psb_scheduler_pause(dev_priv);
++      if (!psb_scheduler_idle(dev_priv)) {
++              spin_lock_irqsave(&scheduler->lock, irq_flags);
++
++              cur_jiffies = jiffies;
++              wait_jiffies = cur_jiffies;
++              if (scheduler->current_task[PSB_SCENE_ENGINE_TA] &&
++                  time_after_eq(scheduler->ta_end_jiffies, wait_jiffies))
++                      wait_jiffies = scheduler->ta_end_jiffies;
++              if (scheduler->current_task[PSB_SCENE_ENGINE_RASTER] &&
++                  time_after_eq(scheduler->raster_end_jiffies,
++                                wait_jiffies))
++                      wait_jiffies = scheduler->raster_end_jiffies;
++
++              wait_jiffies -= cur_jiffies;
++              spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++
++              (void) wait_event_timeout(scheduler->idle_queue,
++                                        psb_scheduler_idle(dev_priv),
++                                        wait_jiffies);
++      }
++
++      if (!psb_scheduler_idle(dev_priv)) {
++              spin_lock_irqsave(&scheduler->lock, irq_flags);
++              task = scheduler->current_task[PSB_SCENE_ENGINE_RASTER];
++              if (task) {
++                      DRM_ERROR("Detected Poulsbo rasterizer lockup.\n");
++                      if (task->engine == PSB_ENGINE_HPRAST) {
++                              psb_fence_error(scheduler->dev,
++                                              PSB_ENGINE_HPRAST,
++                                              task->sequence,
++                                              _PSB_FENCE_TYPE_RASTER_DONE,
++                                              error_condition);
++
++                              list_del(&task->head);
++                              psb_xhw_clean_buf(dev_priv, &task->buf);
++                              list_add_tail(&task->head,
++                                            &scheduler->task_done_queue);
++                      } else {
++                              list_add(&task->head,
++                                       &scheduler->raster_queue);
++                      }
++              }
++              scheduler->current_task[PSB_SCENE_ENGINE_RASTER] = NULL;
++              task = scheduler->current_task[PSB_SCENE_ENGINE_TA];
++              if (task) {
++                      DRM_ERROR("Detected Poulsbo ta lockup.\n");
++                      list_add_tail(&task->head,
++                                    &scheduler->raster_queue);
++#ifdef FIX_TG_16
++                      psb_2d_atomic_unlock(dev_priv);
++#endif
++              }
++              scheduler->current_task[PSB_SCENE_ENGINE_TA] = NULL;
++              scheduler->ta_state = 0;
++
++#ifdef FIX_TG_16
++              atomic_set(&dev_priv->ta_wait_2d, 0);
++              atomic_set(&dev_priv->ta_wait_2d_irq, 0);
++              wake_up(&dev_priv->queue_2d);
++#endif
++              spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++      }
++
++      /*
++       * Empty raster queue.
++       */
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      list_for_each_entry_safe(task, next_task, &scheduler->raster_queue,
++                               head) {
++              struct psb_scene *scene = task->scene;
++
++              DRM_INFO("Signaling fence sequence %u\n",
++                       task->sequence);
++
++              psb_fence_error(scheduler->dev,
++                              task->engine,
++                              task->sequence,
++                              _PSB_FENCE_TYPE_TA_DONE |
++                              _PSB_FENCE_TYPE_RASTER_DONE |
++                              _PSB_FENCE_TYPE_SCENE_DONE |
++                              _PSB_FENCE_TYPE_FEEDBACK, error_condition);
++              if (scene) {
++                      scene->flags = 0;
++                      if (scene->hw_scene) {
++                              list_add_tail(&scene->hw_scene->head,
++                                            &scheduler->hw_scenes);
++                              scene->hw_scene = NULL;
++                      }
++              }
++
++              psb_xhw_clean_buf(dev_priv, &task->buf);
++              list_del(&task->head);
++              list_add_tail(&task->head, &scheduler->task_done_queue);
++      }
++
++      schedule_delayed_work(&scheduler->wq, 1);
++      scheduler->idle = 1;
++      wake_up(&scheduler->idle_queue);
++
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++      psb_scheduler_restart(dev_priv);
++
++}
++
++int psb_scheduler_init(struct drm_device *dev,
++                     struct psb_scheduler *scheduler)
++{
++      struct psb_hw_scene *hw_scene;
++      int i;
++
++      memset(scheduler, 0, sizeof(*scheduler));
++      scheduler->dev = dev;
++      mutex_init(&scheduler->task_wq_mutex);
++      mutex_init(&scheduler->topaz_power_mutex);
++      mutex_init(&scheduler->msvdx_power_mutex);
++      spin_lock_init(&scheduler->lock);
++      scheduler->idle = 1;
++
++      INIT_LIST_HEAD(&scheduler->ta_queue);
++      INIT_LIST_HEAD(&scheduler->raster_queue);
++      INIT_LIST_HEAD(&scheduler->hp_raster_queue);
++      INIT_LIST_HEAD(&scheduler->hw_scenes);
++      INIT_LIST_HEAD(&scheduler->task_done_queue);
++      INIT_DELAYED_WORK(&scheduler->wq, &psb_free_task_wq);
++      INIT_DELAYED_WORK(&scheduler->topaz_suspend_wq,
++                        &psb_powerdown_topaz);
++      INIT_DELAYED_WORK(&scheduler->msvdx_suspend_wq,
++                        &psb_powerdown_msvdx);
++      init_waitqueue_head(&scheduler->idle_queue);
++
++      for (i = 0; i < PSB_NUM_HW_SCENES; ++i) {
++              hw_scene = &scheduler->hs[i];
++              hw_scene->context_number = i;
++              list_add_tail(&hw_scene->head, &scheduler->hw_scenes);
++      }
++
++      for (i = 0; i < _PSB_ENGINE_TA_FENCE_TYPES; ++i)
++              scheduler->seq[i].reported = 0;
++      return 0;
++}
++
++/*
++ * Scene references maintained by the scheduler are not refcounted.
++ * Remove all references to a particular scene here.
++ */
++
++void psb_scheduler_remove_scene_refs(struct psb_scene *scene)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) scene->dev->dev_private;
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      struct psb_hw_scene *hw_scene;
++      unsigned long irq_flags;
++      unsigned int i;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      for (i = 0; i < PSB_NUM_HW_SCENES; ++i) {
++              hw_scene = &scheduler->hs[i];
++              if (hw_scene->last_scene == scene) {
++                      BUG_ON(list_empty(&hw_scene->head));
++                      hw_scene->last_scene = NULL;
++              }
++      }
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++}
++
++void psb_scheduler_takedown(struct psb_scheduler *scheduler)
++{
++      flush_scheduled_work();
++}
++
++static int psb_setup_task(struct drm_device *dev,
++                        struct drm_psb_cmdbuf_arg *arg,
++                        struct ttm_buffer_object *raster_cmd_buffer,
++                        struct ttm_buffer_object *ta_cmd_buffer,
++                        struct ttm_buffer_object *oom_cmd_buffer,
++                        struct psb_scene *scene,
++                        enum psb_task_type task_type,
++                        uint32_t engine,
++                        uint32_t flags, struct psb_task **task_p)
++{
++      struct psb_task *task;
++      int ret;
++
++      if (ta_cmd_buffer && arg->ta_size > PSB_MAX_TA_CMDS) {
++              DRM_ERROR("Too many ta cmds %d.\n", arg->ta_size);
++              return -EINVAL;
++      }
++      if (raster_cmd_buffer && arg->cmdbuf_size > PSB_MAX_RASTER_CMDS) {
++              DRM_ERROR("Too many raster cmds %d.\n", arg->cmdbuf_size);
++              return -EINVAL;
++      }
++      if (oom_cmd_buffer && arg->oom_size > PSB_MAX_OOM_CMDS) {
++              DRM_ERROR("Too many oom cmds %d.\n", arg->oom_size);
++              return -EINVAL;
++      }
++
++      task = kzalloc(sizeof(*task), GFP_KERNEL);
++      if (!task)
++              return -ENOMEM;
++
++      atomic_set(&task->buf.done, 1);
++      task->engine = engine;
++      INIT_LIST_HEAD(&task->head);
++      INIT_LIST_HEAD(&task->buf.head);
++      if (ta_cmd_buffer && arg->ta_size != 0) {
++              task->ta_cmd_size = arg->ta_size;
++              ret = psb_submit_copy_cmdbuf(dev, ta_cmd_buffer,
++                                           arg->ta_offset,
++                                           arg->ta_size,
++                                           PSB_ENGINE_TA, task->ta_cmds);
++              if (ret)
++                      goto out_err;
++      }
++      if (raster_cmd_buffer) {
++              task->raster_cmd_size = arg->cmdbuf_size;
++              ret = psb_submit_copy_cmdbuf(dev, raster_cmd_buffer,
++                                           arg->cmdbuf_offset,
++                                           arg->cmdbuf_size,
++                                           PSB_ENGINE_TA,
++                                           task->raster_cmds);
++              if (ret)
++                      goto out_err;
++      }
++      if (oom_cmd_buffer && arg->oom_size != 0) {
++              task->oom_cmd_size = arg->oom_size;
++              ret = psb_submit_copy_cmdbuf(dev, oom_cmd_buffer,
++                                           arg->oom_offset,
++                                           arg->oom_size,
++                                           PSB_ENGINE_TA,
++                                           task->oom_cmds);
++              if (ret)
++                      goto out_err;
++      }
++      task->task_type = task_type;
++      task->flags = flags;
++      if (scene)
++              task->scene = psb_scene_ref(scene);
++
++      *task_p = task;
++      return 0;
++out_err:
++      kfree(task);
++      *task_p = NULL;
++      return ret;
++}
++
++int psb_cmdbuf_ta(struct drm_file *priv,
++                struct psb_context *context,
++                struct drm_psb_cmdbuf_arg *arg,
++                struct ttm_buffer_object *cmd_buffer,
++                struct ttm_buffer_object *ta_buffer,
++                struct ttm_buffer_object *oom_buffer,
++                struct psb_scene *scene,
++                struct psb_feedback_info *feedback,
++                struct psb_ttm_fence_rep *fence_arg)
++{
++      struct drm_device *dev = priv->minor->dev;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct ttm_fence_object *fence = NULL;
++      struct psb_task *task = NULL;
++      int ret;
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      uint32_t sequence;      
++
++      PSB_DEBUG_RENDER("Cmdbuf ta\n");
++
++      ret = psb_setup_task(dev, arg, cmd_buffer, ta_buffer,
++                           oom_buffer, scene,
++                           psb_ta_task, PSB_ENGINE_TA,
++                           PSB_FIRE_FLAG_RASTER_DEALLOC, &task);
++
++      if (ret)
++              goto out_err;
++
++      task->feedback = *feedback;
++      mutex_lock(&dev_priv->reset_mutex);
++
++      /*
++       * Hand the task over to the scheduler.
++       */
++
++      task->sequence = psb_fence_advance_sequence(dev, PSB_ENGINE_TA);
++
++      task->ta_complete_action = PSB_RASTER;
++      task->raster_complete_action = PSB_RETURN;
++      sequence = task->sequence;
++
++      spin_lock_irq(&scheduler->lock);
++
++      list_add_tail(&task->head, &scheduler->ta_queue);
++      PSB_DEBUG_RENDER("queued ta %u\n", task->sequence);
++
++      psb_schedule_ta(dev_priv, scheduler);
++
++      /**
++       * From this point we may no longer dereference task,
++       * as the object it points to may be freed by another thread.
++       */
++      
++      task = NULL;
++      spin_unlock_irq(&scheduler->lock);
++      mutex_unlock(&dev_priv->reset_mutex);
++
++      psb_fence_or_sync(priv, PSB_ENGINE_TA, context->fence_types,
++                        arg->fence_flags,
++                        &context->validate_list, fence_arg, &fence);
++      ttm_eu_fence_buffer_objects(&context->kern_validate_list, fence);
++
++      if (fence) {
++              spin_lock_irq(&scheduler->lock);
++              psb_report_fence(dev_priv, scheduler, PSB_ENGINE_TA,
++                               sequence, _PSB_FENCE_EXE_SHIFT, 1);
++              spin_unlock_irq(&scheduler->lock);
++              fence_arg->signaled_types |= _PSB_FENCE_TYPE_EXE;
++      }
++
++out_err:
++      if (ret && ret != -ERESTART)
++              DRM_ERROR("TA task queue job failed.\n");
++
++      if (fence) {
++#ifdef PSB_WAIT_FOR_TA_COMPLETION
++              ttm_fence_object_wait(fence, 1, 1, DRM_FENCE_TYPE_EXE |
++                                    _PSB_FENCE_TYPE_TA_DONE);
++#ifdef PSB_BE_PARANOID
++              ttm_fence_object_wait(fence, 1, 1, DRM_FENCE_TYPE_EXE |
++                                    _PSB_FENCE_TYPE_SCENE_DONE);
++#endif
++#endif
++              ttm_fence_object_unref(&fence);
++      }
++      return ret;
++}
++
++int psb_cmdbuf_raster(struct drm_file *priv,
++                    struct psb_context *context,
++                    struct drm_psb_cmdbuf_arg *arg,
++                    struct ttm_buffer_object *cmd_buffer,
++                    struct psb_ttm_fence_rep *fence_arg)
++{
++      struct drm_device *dev = priv->minor->dev;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct ttm_fence_object *fence = NULL;
++      struct psb_task *task = NULL;
++      int ret;
++      uint32_t sequence;
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++
++      PSB_DEBUG_RENDER("Cmdbuf Raster\n");
++
++      ret = psb_setup_task(dev, arg, cmd_buffer, NULL, NULL,
++                           NULL, psb_raster_task,
++                           PSB_ENGINE_TA, 0, &task);
++
++      if (ret)
++              goto out_err;
++
++      /*
++       * Hand the task over to the scheduler.
++       */
++
++      mutex_lock(&dev_priv->reset_mutex);
++      task->sequence = psb_fence_advance_sequence(dev, PSB_ENGINE_TA);
++      task->ta_complete_action = PSB_RASTER;
++      task->raster_complete_action = PSB_RETURN;
++      sequence = task->sequence;      
++
++      spin_lock_irq(&scheduler->lock);
++      list_add_tail(&task->head, &scheduler->ta_queue);
++      PSB_DEBUG_RENDER("queued raster %u\n", task->sequence);
++      psb_schedule_ta(dev_priv, scheduler);
++
++      /**
++       * From this point we may no longer dereference task,
++       * as the object it points to may be freed by another thread.
++       */
++      
++      task = NULL;
++      spin_unlock_irq(&scheduler->lock);
++      mutex_unlock(&dev_priv->reset_mutex);
++
++      psb_fence_or_sync(priv, PSB_ENGINE_TA, context->fence_types,
++                        arg->fence_flags,
++                        &context->validate_list, fence_arg, &fence);
++
++      ttm_eu_fence_buffer_objects(&context->kern_validate_list, fence);
++      if (fence) {
++              spin_lock_irq(&scheduler->lock);
++              psb_report_fence(dev_priv, scheduler, PSB_ENGINE_TA, sequence,
++                               _PSB_FENCE_EXE_SHIFT, 1);
++              spin_unlock_irq(&scheduler->lock);
++              fence_arg->signaled_types |= _PSB_FENCE_TYPE_EXE;
++      }
++out_err:
++      if (ret && ret != -ERESTART)
++              DRM_ERROR("Raster task queue job failed.\n");
++
++      if (fence) {
++#ifdef PSB_WAIT_FOR_RASTER_COMPLETION
++              ttm_fence_object_wait(fence, 1, 1, fence->type);
++#endif
++              ttm_fence_object_unref(&fence);
++      }
++
++      return ret;
++}
++
++#ifdef FIX_TG_16
++
++static int psb_check_2d_idle(struct drm_psb_private *dev_priv)
++{
++      if (psb_2d_trylock(dev_priv)) {
++              if ((PSB_RSGX32(PSB_CR_2D_SOCIF) == _PSB_C2_SOCIF_EMPTY) &&
++                  !((PSB_RSGX32(PSB_CR_2D_BLIT_STATUS) &
++                     _PSB_C2B_STATUS_BUSY))) {
++                      return 0;
++              }
++              if (atomic_cmpxchg(&dev_priv->ta_wait_2d_irq, 0, 1) == 0)
++                      psb_2D_irq_on(dev_priv);
++
++              PSB_WSGX32(PSB_2D_FENCE_BH, PSB_SGX_2D_SLAVE_PORT);
++              PSB_WSGX32(PSB_2D_FLUSH_BH, PSB_SGX_2D_SLAVE_PORT);
++              (void) PSB_RSGX32(PSB_SGX_2D_SLAVE_PORT);
++
++              psb_2d_atomic_unlock(dev_priv);
++      }
++
++      atomic_set(&dev_priv->ta_wait_2d, 1);
++      return -EBUSY;
++}
++
++static void psb_atomic_resume_ta_2d_idle(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++
++      if (atomic_cmpxchg(&dev_priv->ta_wait_2d, 1, 0) == 1) {
++              psb_schedule_ta(dev_priv, scheduler);
++              if (atomic_read(&dev_priv->waiters_2d) != 0)
++                      wake_up(&dev_priv->queue_2d);
++      }
++}
++
++void psb_resume_ta_2d_idle(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      if (atomic_cmpxchg(&dev_priv->ta_wait_2d_irq, 1, 0) == 1) {
++              atomic_set(&dev_priv->ta_wait_2d, 0);
++              psb_2D_irq_off(dev_priv);
++              psb_schedule_ta(dev_priv, scheduler);
++              if (atomic_read(&dev_priv->waiters_2d) != 0)
++                      wake_up(&dev_priv->queue_2d);
++      }
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++}
++
++/*
++ * 2D locking functions. Can't use a mutex since the trylock() and
++ * unlock() methods need to be accessible from interrupt context.
++ */
++
++int psb_2d_trylock(struct drm_psb_private *dev_priv)
++{
++      return atomic_cmpxchg(&dev_priv->lock_2d, 0, 1) == 0;
++}
++
++void psb_2d_atomic_unlock(struct drm_psb_private *dev_priv)
++{
++      atomic_set(&dev_priv->lock_2d, 0);
++      if (atomic_read(&dev_priv->waiters_2d) != 0)
++              wake_up(&dev_priv->queue_2d);
++}
++
++void psb_2d_unlock(struct drm_psb_private *dev_priv)
++{
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&scheduler->lock, irq_flags);
++      psb_2d_atomic_unlock(dev_priv);
++      if (atomic_read(&dev_priv->ta_wait_2d) != 0)
++              psb_atomic_resume_ta_2d_idle(dev_priv);
++      spin_unlock_irqrestore(&scheduler->lock, irq_flags);
++}
++
++void psb_2d_lock(struct drm_psb_private *dev_priv)
++{
++      atomic_inc(&dev_priv->waiters_2d);
++      wait_event(dev_priv->queue_2d,
++                 atomic_read(&dev_priv->ta_wait_2d) == 0);
++      wait_event(dev_priv->queue_2d, psb_2d_trylock(dev_priv));
++      atomic_dec(&dev_priv->waiters_2d);
++}
++
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_schedule.h b/drivers/gpu/drm/psb/psb_schedule.h
+new file mode 100644
+index 0000000..01c27b0
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_schedule.h
+@@ -0,0 +1,181 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics.com>
++ */
++
++#ifndef _PSB_SCHEDULE_H_
++#define _PSB_SCHEDULE_H_
++
++#include <drm/drmP.h>
++
++struct psb_context;
++
++enum psb_task_type {
++      psb_ta_midscene_task,
++      psb_ta_task,
++      psb_raster_task,
++      psb_freescene_task,
++      psb_flip_task
++};
++
++#define PSB_MAX_TA_CMDS 60
++#define PSB_MAX_RASTER_CMDS 66
++#define PSB_MAX_OOM_CMDS (DRM_PSB_NUM_RASTER_USE_REG * 2 + 6)
++
++struct psb_xhw_buf {
++      struct list_head head;
++      int copy_back;
++      atomic_t done;
++      struct drm_psb_xhw_arg arg;
++
++};
++
++struct psb_feedback_info {
++      struct ttm_buffer_object *bo;
++      struct page *page;
++      uint32_t offset;
++};
++
++struct psb_task {
++      struct list_head head;
++      struct psb_scene *scene;
++      struct psb_feedback_info feedback;
++      enum psb_task_type task_type;
++      uint32_t engine;
++      uint32_t sequence;
++      uint32_t ta_cmds[PSB_MAX_TA_CMDS];
++      uint32_t raster_cmds[PSB_MAX_RASTER_CMDS];
++      uint32_t oom_cmds[PSB_MAX_OOM_CMDS];
++      uint32_t ta_cmd_size;
++      uint32_t raster_cmd_size;
++      uint32_t oom_cmd_size;
++      uint32_t feedback_offset;
++      uint32_t ta_complete_action;
++      uint32_t raster_complete_action;
++      uint32_t hw_cookie;
++      uint32_t flags;
++      uint32_t reply_flags;
++      uint32_t aborting;
++      struct psb_xhw_buf buf;
++};
++
++struct psb_hw_scene {
++      struct list_head head;
++      uint32_t context_number;
++
++      /*
++       * This pointer does not refcount the last_scene_buffer,
++       * so we must make sure it is set to NULL before destroying
++       * the corresponding task.
++       */
++
++      struct psb_scene *last_scene;
++};
++
++struct psb_scene;
++struct drm_psb_private;
++
++struct psb_scheduler_seq {
++      uint32_t sequence;
++      int reported;
++};
++
++struct psb_scheduler {
++      struct drm_device *dev;
++      struct psb_scheduler_seq seq[_PSB_ENGINE_TA_FENCE_TYPES];
++      struct psb_hw_scene hs[PSB_NUM_HW_SCENES];
++      struct mutex task_wq_mutex;
++      struct mutex topaz_power_mutex;
++      struct mutex msvdx_power_mutex;
++      spinlock_t lock;
++      struct list_head hw_scenes;
++      struct list_head ta_queue;
++      struct list_head raster_queue;
++      struct list_head hp_raster_queue;
++      struct list_head task_done_queue;
++      struct psb_task *current_task[PSB_SCENE_NUM_ENGINES];
++      struct psb_task *feedback_task;
++      int ta_state;
++      struct psb_hw_scene *pending_hw_scene;
++      uint32_t pending_hw_scene_seq;
++      struct delayed_work wq;
++      struct delayed_work topaz_suspend_wq;
++      struct delayed_work msvdx_suspend_wq;
++      struct psb_scene_pool *pool;
++      uint32_t idle_count;
++      int idle;
++      wait_queue_head_t idle_queue;
++      unsigned long ta_end_jiffies;
++      unsigned long total_ta_jiffies;
++      unsigned long raster_end_jiffies;
++      unsigned long total_raster_jiffies;
++};
++
++#define PSB_RF_FIRE_TA       (1 << 0)
++#define PSB_RF_OOM           (1 << 1)
++#define PSB_RF_OOM_REPLY     (1 << 2)
++#define PSB_RF_TERMINATE     (1 << 3)
++#define PSB_RF_TA_DONE       (1 << 4)
++#define PSB_RF_FIRE_RASTER   (1 << 5)
++#define PSB_RF_RASTER_DONE   (1 << 6)
++#define PSB_RF_DEALLOC       (1 << 7)
++
++extern struct psb_scene_pool *psb_alloc_scene_pool(struct drm_file *priv,
++                                                 int shareable,
++                                                 uint32_t w, uint32_t h);
++extern uint32_t psb_scene_handle(struct psb_scene *scene);
++extern int psb_scheduler_init(struct drm_device *dev,
++                            struct psb_scheduler *scheduler);
++extern void psb_scheduler_takedown(struct psb_scheduler *scheduler);
++extern int psb_cmdbuf_ta(struct drm_file *priv,
++                       struct psb_context *context,
++                       struct drm_psb_cmdbuf_arg *arg,
++                       struct ttm_buffer_object *cmd_buffer,
++                       struct ttm_buffer_object *ta_buffer,
++                       struct ttm_buffer_object *oom_buffer,
++                       struct psb_scene *scene,
++                       struct psb_feedback_info *feedback,
++                       struct psb_ttm_fence_rep *fence_arg);
++extern int psb_cmdbuf_raster(struct drm_file *priv,
++                           struct psb_context *context,
++                           struct drm_psb_cmdbuf_arg *arg,
++                           struct ttm_buffer_object *cmd_buffer,
++                           struct psb_ttm_fence_rep *fence_arg);
++extern void psb_scheduler_handler(struct drm_psb_private *dev_priv,
++                                uint32_t status);
++extern void psb_scheduler_pause(struct drm_psb_private *dev_priv);
++extern void psb_scheduler_restart(struct drm_psb_private *dev_priv);
++extern int psb_scheduler_idle(struct drm_psb_private *dev_priv);
++extern int psb_scheduler_finished(struct drm_psb_private *dev_priv);
++
++extern void psb_scheduler_lockup(struct drm_psb_private *dev_priv,
++                               int *lockup, int *idle);
++extern void psb_scheduler_reset(struct drm_psb_private *dev_priv,
++                              int error_condition);
++extern int psb_forced_user_interrupt(struct drm_psb_private *dev_priv);
++extern void psb_scheduler_remove_scene_refs(struct psb_scene *scene);
++extern void psb_scheduler_ta_mem_check(struct drm_psb_private *dev_priv);
++extern int psb_extend_timeout(struct drm_psb_private *dev_priv,
++                             uint32_t xhw_lockup);
++
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_setup.c b/drivers/gpu/drm/psb/psb_setup.c
+new file mode 100644
+index 0000000..134ff08
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_setup.c
+@@ -0,0 +1,18 @@
++#include <drm/drmP.h>
++#include <drm/drm.h>
++#include <drm/drm_crtc.h>
++#include <drm/drm_edid.h>
++#include "psb_intel_drv.h"
++#include "psb_drv.h"
++#include "psb_intel_reg.h"
++
++/* Fixed name */
++#define ACPI_EDID_LCD "\\_SB_.PCI0.GFX0.DD04._DDC"
++#define ACPI_DOD      "\\_SB_.PCI0.GFX0._DOD"
++
++#include "psb_intel_i2c.c"
++#include "psb_intel_sdvo.c"
++#include "psb_intel_modes.c"
++#include "psb_intel_lvds.c"
++#include "psb_intel_dsi.c"
++#include "psb_intel_display.c"
+diff --git a/drivers/gpu/drm/psb/psb_sgx.c b/drivers/gpu/drm/psb/psb_sgx.c
+new file mode 100644
+index 0000000..2c1f1a4
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_sgx.c
+@@ -0,0 +1,1784 @@
++/**************************************************************************
++ * Copyright (c) 2007, Intel Corporation.
++ * All Rights Reserved.
++ * Copyright (c) 2008, Tungsten Graphics, Inc. Cedar Park, TX. USA.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ */
++
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "psb_drm.h"
++#include "psb_reg.h"
++#include "psb_scene.h"
++#include "psb_msvdx.h"
++#include "lnc_topaz.h"
++#include "ttm/ttm_bo_api.h"
++#include "ttm/ttm_execbuf_util.h"
++#include "ttm/ttm_userobj_api.h"
++#include "ttm/ttm_placement_common.h"
++#include "psb_sgx.h"
++#include "psb_intel_reg.h"
++#include "psb_powermgmt.h"
++
++
++static inline int psb_same_page(unsigned long offset,
++                              unsigned long offset2)
++{
++      return (offset & PAGE_MASK) == (offset2 & PAGE_MASK);
++}
++
++static inline unsigned long psb_offset_end(unsigned long offset,
++                                            unsigned long end)
++{
++      offset = (offset + PAGE_SIZE) & PAGE_MASK;
++      return (end < offset) ? end : offset;
++}
++
++static void psb_idle_engine(struct drm_device *dev, int engine);
++
++struct psb_dstbuf_cache {
++      unsigned int dst;
++      struct ttm_buffer_object *dst_buf;
++      unsigned long dst_offset;
++      uint32_t *dst_page;
++      unsigned int dst_page_offset;
++      struct ttm_bo_kmap_obj dst_kmap;
++      bool dst_is_iomem;
++};
++
++struct psb_validate_buffer {
++      struct ttm_validate_buffer base;
++      struct psb_validate_req req;
++      int ret;
++      struct psb_validate_arg __user *user_val_arg;
++      uint32_t flags;
++      uint32_t offset;
++      int po_correct;
++};
++
++
++
++#define PSB_REG_GRAN_SHIFT 2
++#define PSB_REG_GRANULARITY (1 << PSB_REG_GRAN_SHIFT)
++#define PSB_MAX_REG 0x1000
++
++static const uint32_t disallowed_ranges[][2] = {
++      {0x0000, 0x0200},
++      {0x0208, 0x0214},
++      {0x021C, 0x0224},
++      {0x0230, 0x0234},
++      {0x0248, 0x024C},
++      {0x0254, 0x0358},
++      {0x0428, 0x0428},
++      {0x0430, 0x043C},
++      {0x0498, 0x04B4},
++      {0x04CC, 0x04D8},
++      {0x04E0, 0x07FC},
++      {0x0804, 0x0A14},
++      {0x0A4C, 0x0A58},
++      {0x0A68, 0x0A80},
++      {0x0AA0, 0x0B1C},
++      {0x0B2C, 0x0CAC},
++      {0x0CB4, PSB_MAX_REG - PSB_REG_GRANULARITY}
++};
++
++static uint32_t psb_disallowed_regs[PSB_MAX_REG /
++                                  (PSB_REG_GRANULARITY *
++                                   (sizeof(uint32_t) << 3))];
++
++static inline int psb_disallowed(uint32_t reg)
++{
++      reg >>= PSB_REG_GRAN_SHIFT;
++      return (psb_disallowed_regs[reg >> 5] & (1 << (reg & 31))) != 0;
++}
++
++void psb_init_disallowed(void)
++{
++      int i;
++      uint32_t reg, tmp;
++      static int initialized;
++
++      if (initialized)
++              return;
++
++      initialized = 1;
++      memset(psb_disallowed_regs, 0, sizeof(psb_disallowed_regs));
++
++      for (i = 0;
++           i < (sizeof(disallowed_ranges) / (2 * sizeof(uint32_t)));
++           ++i) {
++              for (reg = disallowed_ranges[i][0];
++                   reg <= disallowed_ranges[i][1]; reg += 4) {
++                      tmp = reg >> 2;
++                      psb_disallowed_regs[tmp >> 5] |= (1 << (tmp & 31));
++              }
++      }
++}
++
++static int psb_memcpy_check(uint32_t *dst, const uint32_t *src,
++                          uint32_t size)
++{
++      size >>= 3;
++      while (size--) {
++              if (unlikely((*src >= 0x1000) || psb_disallowed(*src))) {
++                      DRM_ERROR("Forbidden SGX register access: "
++                                "0x%04x.\n", *src);
++                      return -EPERM;
++              }
++              *dst++ = *src++;
++              *dst++ = *src++;
++      }
++      return 0;
++}
++
++int psb_2d_wait_available(struct drm_psb_private *dev_priv,
++                        unsigned size)
++{
++      uint32_t avail = PSB_RSGX32(PSB_CR_2D_SOCIF);
++      int ret = 0;
++
++retry:
++      if (avail < size) {
++#if 0
++              /* We'd ideally
++               * like to have an IRQ-driven event here.
++               */
++
++              psb_2D_irq_on(dev_priv);
++              DRM_WAIT_ON(ret, dev_priv->event_2d_queue, DRM_HZ,
++                          ((avail =
++                            PSB_RSGX32(PSB_CR_2D_SOCIF)) >= size));
++              psb_2D_irq_off(dev_priv);
++              if (ret == 0)
++                      return 0;
++              if (ret == -EINTR) {
++                      ret = 0;
++                      goto retry;
++              }
++#else
++              avail = PSB_RSGX32(PSB_CR_2D_SOCIF);
++              goto retry;
++#endif
++      }
++      return ret;
++}
++
++int psb_2d_submit(struct drm_psb_private *dev_priv, uint32_t *cmdbuf,
++                unsigned size)
++{
++      int ret = 0;
++      int i;
++      unsigned submit_size;
++      
++      while (size > 0) {
++              submit_size = (size < 0x60) ? size : 0x60;
++              size -= submit_size;
++              ret = psb_2d_wait_available(dev_priv, submit_size);
++              if (ret)
++                      return ret;
++
++              submit_size <<= 2;
++              mutex_lock(&dev_priv->reset_mutex);
++              for (i = 0; i < submit_size; i += 4) {
++                      PSB_WSGX32(*cmdbuf++, PSB_SGX_2D_SLAVE_PORT + i);
++              }
++              (void)PSB_RSGX32(PSB_SGX_2D_SLAVE_PORT + i - 4);
++              mutex_unlock(&dev_priv->reset_mutex);
++      }
++      return 0;
++}
++
++int psb_blit_sequence(struct drm_psb_private *dev_priv, uint32_t sequence)
++{
++      uint32_t buffer[8];
++      uint32_t *bufp = buffer;
++      int ret;
++
++      *bufp++ = PSB_2D_FENCE_BH;
++
++      *bufp++ = PSB_2D_DST_SURF_BH |
++          PSB_2D_DST_8888ARGB | (4 << PSB_2D_DST_STRIDE_SHIFT);
++      *bufp++ = dev_priv->comm_mmu_offset - dev_priv->mmu_2d_offset;
++
++      *bufp++ = PSB_2D_BLIT_BH |
++          PSB_2D_ROT_NONE |
++          PSB_2D_COPYORDER_TL2BR |
++          PSB_2D_DSTCK_DISABLE |
++          PSB_2D_SRCCK_DISABLE | PSB_2D_USE_FILL | PSB_2D_ROP3_PATCOPY;
++
++      *bufp++ = sequence << PSB_2D_FILLCOLOUR_SHIFT;
++      *bufp++ = (0 << PSB_2D_DST_XSTART_SHIFT) |
++          (0 << PSB_2D_DST_YSTART_SHIFT);
++      *bufp++ =
++          (1 << PSB_2D_DST_XSIZE_SHIFT) | (1 << PSB_2D_DST_YSIZE_SHIFT);
++
++      *bufp++ = PSB_2D_FLUSH_BH;
++
++      psb_2d_lock(dev_priv);
++      ret = psb_2d_submit(dev_priv, buffer, bufp - buffer);
++      psb_2d_unlock(dev_priv);
++
++      if (!ret)
++              psb_schedule_watchdog(dev_priv);
++      return ret;
++}
++
++int psb_emit_2d_copy_blit(struct drm_device *dev,
++                        uint32_t src_offset,
++                        uint32_t dst_offset, uint32_t pages,
++                        int direction)
++{
++      uint32_t cur_pages;
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      uint32_t buf[10];
++      uint32_t *bufp;
++      uint32_t xstart;
++      uint32_t ystart;
++      uint32_t blit_cmd;
++      uint32_t pg_add;
++      int ret = 0;
++
++      if (!dev_priv)
++              return 0;
++
++      if (direction) {
++              pg_add = (pages - 1) << PAGE_SHIFT;
++              src_offset += pg_add;
++              dst_offset += pg_add;
++      }
++
++      blit_cmd = PSB_2D_BLIT_BH |
++          PSB_2D_ROT_NONE |
++          PSB_2D_DSTCK_DISABLE |
++          PSB_2D_SRCCK_DISABLE |
++          PSB_2D_USE_PAT |
++          PSB_2D_ROP3_SRCCOPY |
++          (direction ? PSB_2D_COPYORDER_BR2TL : PSB_2D_COPYORDER_TL2BR);
++      xstart = (direction) ? ((PAGE_SIZE - 1) >> 2) : 0;
++
++      psb_2d_lock(dev_priv);
++      while (pages > 0) {
++              cur_pages = pages;
++              if (cur_pages > 2048)
++                      cur_pages = 2048;
++              pages -= cur_pages;
++              ystart = (direction) ? cur_pages - 1 : 0;
++
++              bufp = buf;
++              *bufp++ = PSB_2D_FENCE_BH;
++
++              *bufp++ = PSB_2D_DST_SURF_BH | PSB_2D_DST_8888ARGB |
++                  (PAGE_SIZE << PSB_2D_DST_STRIDE_SHIFT);
++              *bufp++ = dst_offset;
++              *bufp++ = PSB_2D_SRC_SURF_BH | PSB_2D_SRC_8888ARGB |
++                  (PAGE_SIZE << PSB_2D_SRC_STRIDE_SHIFT);
++              *bufp++ = src_offset;
++              *bufp++ =
++                  PSB_2D_SRC_OFF_BH | (xstart <<
++                                       PSB_2D_SRCOFF_XSTART_SHIFT) |
++                  (ystart << PSB_2D_SRCOFF_YSTART_SHIFT);
++              *bufp++ = blit_cmd;
++              *bufp++ = (xstart << PSB_2D_DST_XSTART_SHIFT) |
++                  (ystart << PSB_2D_DST_YSTART_SHIFT);
++              *bufp++ = ((PAGE_SIZE >> 2) << PSB_2D_DST_XSIZE_SHIFT) |
++                  (cur_pages << PSB_2D_DST_YSIZE_SHIFT);
++
++              ret = psb_2d_submit(dev_priv, buf, bufp - buf);
++              if (ret)
++                      goto out;
++              pg_add =
++                  (cur_pages << PAGE_SHIFT) * ((direction) ? -1 : 1);
++              src_offset += pg_add;
++              dst_offset += pg_add;
++      }
++out:
++      psb_2d_unlock(dev_priv);
++      return ret;
++}
++
++void psb_init_2d(struct drm_psb_private *dev_priv)
++{
++      spin_lock_init(&dev_priv->sequence_lock);
++      psb_reset(dev_priv, 1);
++      dev_priv->mmu_2d_offset = dev_priv->pg->gatt_start;
++      PSB_WSGX32(dev_priv->mmu_2d_offset, PSB_CR_BIF_TWOD_REQ_BASE);
++      (void) PSB_RSGX32(PSB_CR_BIF_TWOD_REQ_BASE);
++}
++
++int psb_idle_2d(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      unsigned long _end = jiffies + DRM_HZ;
++      int busy = 0;
++      bool b_need_release = false;
++
++      if (!powermgmt_is_suspend_in_progress(PSB_GRAPHICS_ISLAND)) {
++              if (!powermgmt_using_hw_begin(dev->pdev, PSB_GRAPHICS_ISLAND, false))
++                      return 0;
++              else
++                      b_need_release = true;
++      }
++
++      /*
++       * First idle the 2D engine.
++       */
++
++      if (dev_priv->engine_lockup_2d) {
++              busy = -EBUSY;
++              goto out;
++      }
++
++      if ((PSB_RSGX32(PSB_CR_2D_SOCIF) == _PSB_C2_SOCIF_EMPTY) &&
++          ((PSB_RSGX32(PSB_CR_2D_BLIT_STATUS) & _PSB_C2B_STATUS_BUSY) ==
++           0))
++              goto out;
++
++      do {
++              busy =
++                  (PSB_RSGX32(PSB_CR_2D_SOCIF) != _PSB_C2_SOCIF_EMPTY);
++      } while (busy && !time_after_eq(jiffies, _end));
++
++      if (busy)
++              busy =
++                  (PSB_RSGX32(PSB_CR_2D_SOCIF) != _PSB_C2_SOCIF_EMPTY);
++      if (busy)
++              goto out;
++
++      do {
++              busy =
++                  ((PSB_RSGX32(PSB_CR_2D_BLIT_STATUS) &
++                    _PSB_C2B_STATUS_BUSY)
++                   != 0);
++      } while (busy && !time_after_eq(jiffies, _end));
++      if (busy)
++              busy =
++                  ((PSB_RSGX32(PSB_CR_2D_BLIT_STATUS) &
++                    _PSB_C2B_STATUS_BUSY)
++                   != 0);
++
++out:
++      if (busy)
++              dev_priv->engine_lockup_2d = 1;
++
++      if (b_need_release)
++              powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++
++      return (busy) ? -EBUSY : 0;
++}
++
++int psb_idle_3d(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      int ret;
++
++      ret = wait_event_timeout(scheduler->idle_queue,
++                               psb_scheduler_finished(dev_priv),
++                               DRM_HZ * 10);
++
++      /*
++      *
++      * wait_event_timeout - function returns 0 if the @timeout elapsed, and the remaining
++      * jiffies if the condition evaluated to true before the timeout elapsed.
++      *
++      */
++      if(ret == 0)
++              DRM_ERROR(" wait_event_timeout - timeout elapsed in waiting for scheduler wq \n");
++
++      return (ret < 1) ? -EBUSY : 0;
++}
++
++static int psb_check_presumed(struct psb_validate_req *req,
++                            struct ttm_buffer_object *bo,
++                            struct psb_validate_arg __user *data,
++                            int *presumed_ok)
++{
++      struct psb_validate_req __user *user_req = &(data->d.req);
++
++      *presumed_ok = 0;
++
++      if (bo->mem.mem_type == TTM_PL_SYSTEM) {
++              *presumed_ok = 1;
++              return 0;
++      }
++
++      if (unlikely(!(req->presumed_flags & PSB_USE_PRESUMED)))
++              return 0;
++
++      if (bo->offset == req->presumed_gpu_offset) {
++              *presumed_ok = 1;
++              return 0;
++      }
++
++      return __put_user(req->presumed_flags & ~PSB_USE_PRESUMED,
++                        &user_req->presumed_flags);
++}
++
++
++static void psb_unreference_buffers(struct psb_context *context)
++{
++      struct ttm_validate_buffer *entry, *next;
++      struct psb_validate_buffer *vbuf;
++      struct list_head *list = &context->validate_list;
++
++      list_for_each_entry_safe(entry, next, list, head) {
++              vbuf =
++                  container_of(entry, struct psb_validate_buffer, base);
++              list_del(&entry->head);
++              ttm_bo_unref(&entry->bo);
++      }
++
++      list = &context->kern_validate_list;
++
++      list_for_each_entry_safe(entry, next, list, head) {
++              vbuf =
++                  container_of(entry, struct psb_validate_buffer, base);
++              list_del(&entry->head);
++              ttm_bo_unref(&entry->bo);
++      }
++}
++
++
++static int psb_lookup_validate_buffer(struct drm_file *file_priv,
++                                    uint64_t data,
++                                    struct psb_validate_buffer *item)
++{
++      struct ttm_object_file *tfile = psb_fpriv(file_priv)->tfile;
++
++      item->user_val_arg =
++          (struct psb_validate_arg __user *) (unsigned long) data;
++
++      if (unlikely(copy_from_user(&item->req, &item->user_val_arg->d.req,
++                                  sizeof(item->req)) != 0)) {
++              DRM_ERROR("Lookup copy fault.\n");
++              return -EFAULT;
++      }
++
++      item->base.bo =
++          ttm_buffer_object_lookup(tfile, item->req.buffer_handle);
++
++      if (unlikely(item->base.bo == NULL)) {
++              DRM_ERROR("Bo lookup fault.\n");
++              return -EINVAL;
++      }
++
++      return 0;
++}
++
++static int psb_reference_buffers(struct drm_file *file_priv,
++                               uint64_t data,
++                               struct psb_context *context)
++{
++      struct psb_validate_buffer *item;
++      int ret;
++
++      while (likely(data != 0)) {
++              if (unlikely(context->used_buffers >=
++                           PSB_NUM_VALIDATE_BUFFERS)) {
++                      DRM_ERROR("Too many buffers "
++                                "on validate list.\n");
++                      ret = -EINVAL;
++                      goto out_err0;
++              }
++                      
++              item = &context->buffers[context->used_buffers];
++
++              ret = psb_lookup_validate_buffer(file_priv, data, item);
++              if (unlikely(ret != 0))
++                      goto out_err0;
++
++              item->base.reserved = 0;
++              list_add_tail(&item->base.head, &context->validate_list);
++              context->used_buffers++;
++              data = item->req.next;
++      }
++      return 0;
++
++out_err0:
++      psb_unreference_buffers(context);
++      return ret;
++}
++
++static int
++psb_placement_fence_type(struct ttm_buffer_object *bo,
++                       uint64_t set_val_flags,
++                       uint64_t clr_val_flags,
++                       uint32_t new_fence_class,
++                       uint32_t *new_fence_type)
++{
++      int ret;
++      uint32_t n_fence_type;
++      uint32_t set_flags = set_val_flags & 0xFFFFFFFF;
++      uint32_t clr_flags = clr_val_flags & 0xFFFFFFFF;
++      struct ttm_fence_object *old_fence;
++      uint32_t old_fence_type;
++
++      if (unlikely
++          (!(set_val_flags &
++             (PSB_GPU_ACCESS_READ | PSB_GPU_ACCESS_WRITE)))) {
++              DRM_ERROR
++                  ("GPU access type (read / write) is not indicated.\n");
++              return -EINVAL;
++      }
++
++      ret = ttm_bo_check_placement(bo, set_flags, clr_flags);
++      if (unlikely(ret != 0))
++              return ret;
++
++      switch (new_fence_class) {
++      case PSB_ENGINE_TA:
++              n_fence_type = _PSB_FENCE_TYPE_EXE |
++                  _PSB_FENCE_TYPE_TA_DONE | _PSB_FENCE_TYPE_RASTER_DONE;
++              if (set_val_flags & PSB_BO_FLAG_TA)
++                      n_fence_type &= ~_PSB_FENCE_TYPE_RASTER_DONE;
++              if (set_val_flags & PSB_BO_FLAG_COMMAND)
++                      n_fence_type &=
++                          ~(_PSB_FENCE_TYPE_RASTER_DONE |
++                            _PSB_FENCE_TYPE_TA_DONE);
++              if (set_val_flags & PSB_BO_FLAG_SCENE)
++                      n_fence_type |= _PSB_FENCE_TYPE_SCENE_DONE;
++              if (set_val_flags & PSB_BO_FLAG_FEEDBACK)
++                      n_fence_type |= _PSB_FENCE_TYPE_FEEDBACK;
++              break;
++      default:
++              n_fence_type = _PSB_FENCE_TYPE_EXE;
++      }
++
++      *new_fence_type = n_fence_type;
++      old_fence = (struct ttm_fence_object *) bo->sync_obj;
++      old_fence_type = (uint32_t) (unsigned long) bo->sync_obj_arg;
++
++      if (old_fence && ((new_fence_class != old_fence->fence_class) ||
++                        ((n_fence_type ^ old_fence_type) &
++                         old_fence_type))) {
++              ret = ttm_bo_wait(bo, 0, 1, 0);
++              if (unlikely(ret != 0))
++                      return ret;
++      }
++
++      bo->proposed_flags = (bo->proposed_flags | set_flags)
++              & ~clr_flags & TTM_PL_MASK_MEMTYPE;
++
++      return 0;
++}
++
++int psb_validate_kernel_buffer(struct psb_context *context,
++                             struct ttm_buffer_object *bo,
++                             uint32_t fence_class,
++                             uint64_t set_flags, uint64_t clr_flags)
++{
++      struct psb_validate_buffer *item;
++      uint32_t cur_fence_type;
++      int ret;
++
++      if (unlikely(context->used_buffers >= PSB_NUM_VALIDATE_BUFFERS)) {
++              DRM_ERROR("Out of free validation buffer entries for "
++                        "kernel buffer validation.\n");
++              return -ENOMEM;
++      }
++
++      item = &context->buffers[context->used_buffers];
++      item->user_val_arg = NULL;
++      item->base.reserved = 0;
++
++      ret = ttm_bo_reserve(bo, 1, 0, 1, context->val_seq);
++      if (unlikely(ret != 0))
++              goto out_unlock;
++
++      mutex_lock(&bo->mutex);
++      ret = psb_placement_fence_type(bo, set_flags, clr_flags, fence_class,
++                                     &cur_fence_type);
++      if (unlikely(ret != 0)) {
++              ttm_bo_unreserve(bo);
++              goto out_unlock;
++      }
++      
++      item->base.bo = ttm_bo_reference(bo);
++      item->base.new_sync_obj_arg = (void *) (unsigned long) cur_fence_type;
++      item->base.reserved = 1;
++
++      list_add_tail(&item->base.head, &context->kern_validate_list);
++      context->used_buffers++;
++
++      ret = ttm_buffer_object_validate(bo, 1, 0);
++      if (unlikely(ret != 0))
++              goto out_unlock;
++
++      item->offset = bo->offset;
++      item->flags = bo->mem.flags;
++      context->fence_types |= cur_fence_type;
++
++out_unlock:
++      mutex_unlock(&bo->mutex);
++      return ret;
++}
++
++
++static int psb_validate_buffer_list(struct drm_file *file_priv,
++                                  uint32_t fence_class,
++                                  struct psb_context *context,
++                                  int *po_correct)
++{
++      struct psb_validate_buffer *item;
++      struct ttm_buffer_object *bo;
++      int ret;
++      struct psb_validate_req *req;
++      uint32_t fence_types = 0;
++      uint32_t cur_fence_type;
++      struct ttm_validate_buffer *entry;
++      struct list_head *list = &context->validate_list;
++
++      *po_correct = 1;
++
++      list_for_each_entry(entry, list, head) {
++              item =
++                  container_of(entry, struct psb_validate_buffer, base);
++              bo = entry->bo;
++              item->ret = 0;
++              req = &item->req;
++
++              mutex_lock(&bo->mutex);
++              ret = psb_placement_fence_type(bo,
++                                             req->set_flags,
++                                             req->clear_flags,
++                                             fence_class,
++                                             &cur_fence_type);
++              if (unlikely(ret != 0))
++                      goto out_err;
++
++              ret = ttm_buffer_object_validate(bo, 1, 0);
++
++              if (unlikely(ret != 0))
++                      goto out_err;
++
++              fence_types |= cur_fence_type;
++              entry->new_sync_obj_arg = (void *)
++                      (unsigned long) cur_fence_type;
++
++              item->offset = bo->offset;
++              item->flags = bo->mem.flags;
++              mutex_unlock(&bo->mutex);
++
++              ret =
++                  psb_check_presumed(&item->req, bo, item->user_val_arg,
++                                     &item->po_correct);
++              if (unlikely(ret != 0))
++                      goto out_err;
++
++              if (unlikely(!item->po_correct))
++                      *po_correct = 0;
++
++              item++;
++      }
++
++      context->fence_types |= fence_types;
++
++      return 0;
++out_err:
++      mutex_unlock(&bo->mutex);
++      item->ret = ret;
++      return ret;
++}
++
++
++int
++psb_reg_submit(struct drm_psb_private *dev_priv, uint32_t *regs,
++             unsigned int cmds)
++{
++      int i;
++
++      /*
++       * cmds is 32-bit words.
++       */
++
++      cmds >>= 1;
++      for (i = 0; i < cmds; ++i) {
++              PSB_WSGX32(regs[1], regs[0]);
++              regs += 2;
++      }
++      wmb();
++      return 0;
++}
++
++/*
++ * Security: Block user-space writing to MMU mapping registers.
++ * This is important for security and brings Poulsbo DRM
++ * up to par with the other DRM drivers. Using this,
++ * user-space should not be able to map arbitrary memory
++ * pages to graphics memory, but all user-space processes
++ * basically have access to all buffer objects mapped to
++ * graphics memory.
++ */
++
++int
++psb_submit_copy_cmdbuf(struct drm_device *dev,
++                     struct ttm_buffer_object *cmd_buffer,
++                     unsigned long cmd_offset,
++                     unsigned long cmd_size,
++                     int engine, uint32_t *copy_buffer)
++{
++      unsigned long cmd_end = cmd_offset + (cmd_size << 2);
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      unsigned long cmd_page_offset =
++          cmd_offset - (cmd_offset & PAGE_MASK);
++      unsigned long cmd_next;
++      struct ttm_bo_kmap_obj cmd_kmap;
++      uint32_t *cmd_page;
++      unsigned cmds;
++      bool is_iomem;
++      int ret = 0;
++
++      if (cmd_size == 0)
++              return 0;
++
++      if (engine == PSB_ENGINE_2D)
++              psb_2d_lock(dev_priv);
++
++      do {
++              cmd_next = psb_offset_end(cmd_offset, cmd_end);
++              ret = ttm_bo_kmap(cmd_buffer, cmd_offset >> PAGE_SHIFT,
++                                1, &cmd_kmap);
++
++              if (ret) {
++                      if (engine == PSB_ENGINE_2D)
++                              psb_2d_unlock(dev_priv);
++                      return ret;
++              }
++              cmd_page = ttm_kmap_obj_virtual(&cmd_kmap, &is_iomem);
++              cmd_page_offset = (cmd_offset & ~PAGE_MASK) >> 2;
++              cmds = (cmd_next - cmd_offset) >> 2;
++
++              switch (engine) {
++              case PSB_ENGINE_2D:
++                      ret =
++                          psb_2d_submit(dev_priv,
++                                        cmd_page + cmd_page_offset,
++                                        cmds);
++                      break;
++              case PSB_ENGINE_RASTERIZER:
++              case PSB_ENGINE_TA:
++              case PSB_ENGINE_HPRAST:
++                      PSB_DEBUG_GENERAL("Reg copy.\n");
++                      ret = psb_memcpy_check(copy_buffer,
++                                             cmd_page + cmd_page_offset,
++                                             cmds * sizeof(uint32_t));
++                      copy_buffer += cmds;
++                      break;
++              default:
++                      ret = -EINVAL;
++              }
++              ttm_bo_kunmap(&cmd_kmap);
++              if (ret)
++                      break;
++      } while (cmd_offset = cmd_next, cmd_offset != cmd_end);
++
++      if (engine == PSB_ENGINE_2D)
++              psb_2d_unlock(dev_priv);
++
++      return ret;
++}
++
++static void psb_clear_dstbuf_cache(struct psb_dstbuf_cache *dst_cache)
++{
++      if (dst_cache->dst_page) {
++              ttm_bo_kunmap(&dst_cache->dst_kmap);
++              dst_cache->dst_page = NULL;
++      }
++      dst_cache->dst_buf = NULL;
++      dst_cache->dst = ~0;
++}
++
++static int psb_update_dstbuf_cache(struct psb_dstbuf_cache *dst_cache,
++                                 struct psb_validate_buffer *buffers,
++                                 unsigned int dst,
++                                 unsigned long dst_offset)
++{
++      int ret;
++
++      PSB_DEBUG_GENERAL("Destination buffer is %d.\n", dst);
++
++      if (unlikely(dst != dst_cache->dst || NULL == dst_cache->dst_buf)) {
++              psb_clear_dstbuf_cache(dst_cache);
++              dst_cache->dst = dst;
++              dst_cache->dst_buf = buffers[dst].base.bo;
++      }
++
++      if (unlikely
++          (dst_offset > dst_cache->dst_buf->num_pages * PAGE_SIZE)) {
++              DRM_ERROR("Relocation destination out of bounds.\n");
++              return -EINVAL;
++      }
++
++      if (!psb_same_page(dst_cache->dst_offset, dst_offset) ||
++          NULL == dst_cache->dst_page) {
++              if (NULL != dst_cache->dst_page) {
++                      ttm_bo_kunmap(&dst_cache->dst_kmap);
++                      dst_cache->dst_page = NULL;
++              }
++
++              ret =
++                  ttm_bo_kmap(dst_cache->dst_buf,
++                              dst_offset >> PAGE_SHIFT, 1,
++                              &dst_cache->dst_kmap);
++              if (ret) {
++                      DRM_ERROR("Could not map destination buffer for "
++                                "relocation.\n");
++                      return ret;
++              }
++
++              dst_cache->dst_page =
++                  ttm_kmap_obj_virtual(&dst_cache->dst_kmap,
++                                       &dst_cache->dst_is_iomem);
++              dst_cache->dst_offset = dst_offset & PAGE_MASK;
++              dst_cache->dst_page_offset = dst_cache->dst_offset >> 2;
++      }
++      return 0;
++}
++
++static int psb_apply_reloc(struct drm_psb_private *dev_priv,
++                         uint32_t fence_class,
++                         const struct drm_psb_reloc *reloc,
++                         struct psb_validate_buffer *buffers,
++                         int num_buffers,
++                         struct psb_dstbuf_cache *dst_cache,
++                         int no_wait, int interruptible)
++{
++      uint32_t val;
++      uint32_t background;
++      unsigned int index;
++      int ret;
++      unsigned int shift;
++      unsigned int align_shift;
++      struct ttm_buffer_object *reloc_bo;
++
++
++      PSB_DEBUG_GENERAL("Reloc type %d\n"
++                        "\t where 0x%04x\n"
++                        "\t buffer 0x%04x\n"
++                        "\t mask 0x%08x\n"
++                        "\t shift 0x%08x\n"
++                        "\t pre_add 0x%08x\n"
++                        "\t background 0x%08x\n"
++                        "\t dst_buffer 0x%08x\n"
++                        "\t arg0 0x%08x\n"
++                        "\t arg1 0x%08x\n",
++                        reloc->reloc_op,
++                        reloc->where,
++                        reloc->buffer,
++                        reloc->mask,
++                        reloc->shift,
++                        reloc->pre_add,
++                        reloc->background,
++                        reloc->dst_buffer, reloc->arg0, reloc->arg1);
++
++      if (unlikely(reloc->buffer >= num_buffers)) {
++              DRM_ERROR("Illegal relocation buffer %d.\n",
++                        reloc->buffer);
++              return -EINVAL;
++      }
++
++      if (buffers[reloc->buffer].po_correct)
++              return 0;
++
++      if (unlikely(reloc->dst_buffer >= num_buffers)) {
++              DRM_ERROR
++                  ("Illegal destination buffer for relocation %d.\n",
++                   reloc->dst_buffer);
++              return -EINVAL;
++      }
++
++      ret =
++          psb_update_dstbuf_cache(dst_cache, buffers, reloc->dst_buffer,
++                                  reloc->where << 2);
++      if (ret)
++              return ret;
++
++      reloc_bo = buffers[reloc->buffer].base.bo;
++
++      if (unlikely(reloc->pre_add > (reloc_bo->num_pages << PAGE_SHIFT))) {
++              DRM_ERROR("Illegal relocation offset add.\n");
++              return -EINVAL;
++      }
++
++      switch (reloc->reloc_op) {
++      case PSB_RELOC_OP_OFFSET:
++              val = reloc_bo->offset + reloc->pre_add;
++              break;
++      case PSB_RELOC_OP_2D_OFFSET:
++              val = reloc_bo->offset + reloc->pre_add -
++                  dev_priv->mmu_2d_offset;
++              if (unlikely(val >= PSB_2D_SIZE)) {
++                      DRM_ERROR("2D relocation out of bounds\n");
++                      return -EINVAL;
++              }
++              break;
++      case PSB_RELOC_OP_PDS_OFFSET:
++              val =
++                  reloc_bo->offset + reloc->pre_add - PSB_MEM_PDS_START;
++              if (unlikely
++                  (val >= (PSB_MEM_MMU_START - PSB_MEM_PDS_START))) {
++                      DRM_ERROR("PDS relocation out of bounds\n");
++                      return -EINVAL;
++              }
++              break;
++      default:
++              DRM_ERROR("Unimplemented relocation.\n");
++              return -EINVAL;
++      }
++
++      shift =
++          (reloc->shift & PSB_RELOC_SHIFT_MASK) >> PSB_RELOC_SHIFT_SHIFT;
++      align_shift =
++          (reloc->
++           shift & PSB_RELOC_ALSHIFT_MASK) >> PSB_RELOC_ALSHIFT_SHIFT;
++
++      val = ((val >> align_shift) << shift);
++      index = reloc->where - dst_cache->dst_page_offset;
++
++      background = reloc->background;
++      val = (background & ~reloc->mask) | (val & reloc->mask);
++      dst_cache->dst_page[index] = val;
++
++      PSB_DEBUG_GENERAL("Reloc buffer %d index 0x%08x, value 0x%08x\n",
++                        reloc->dst_buffer, index,
++                        dst_cache->dst_page[index]);
++
++      return 0;
++}
++
++static int psb_ok_to_map_reloc(struct drm_psb_private *dev_priv,
++                             unsigned int num_pages)
++{
++      int ret = 0;
++
++      spin_lock(&dev_priv->reloc_lock);
++      if (dev_priv->rel_mapped_pages + num_pages <= PSB_MAX_RELOC_PAGES) {
++              dev_priv->rel_mapped_pages += num_pages;
++              ret = 1;
++      }
++      spin_unlock(&dev_priv->reloc_lock);
++      return ret;
++}
++
++static int psb_fixup_relocs(struct drm_file *file_priv,
++                          uint32_t fence_class,
++                          unsigned int num_relocs,
++                          unsigned int reloc_offset,
++                          uint32_t reloc_handle,
++                          struct psb_context *context,
++                          int no_wait, int interruptible)
++{
++      struct drm_device *dev = file_priv->minor->dev;
++      struct ttm_object_file *tfile = psb_fpriv(file_priv)->tfile;
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct ttm_buffer_object *reloc_buffer = NULL;
++      unsigned int reloc_num_pages;
++      unsigned int reloc_first_page;
++      unsigned int reloc_last_page;
++      struct psb_dstbuf_cache dst_cache;
++      struct drm_psb_reloc *reloc;
++      struct ttm_bo_kmap_obj reloc_kmap;
++      bool reloc_is_iomem;
++      int count;
++      int ret = 0;
++      int registered = 0;
++      uint32_t num_buffers = context->used_buffers;
++
++      if (num_relocs == 0)
++              return 0;
++
++      memset(&dst_cache, 0, sizeof(dst_cache));
++      memset(&reloc_kmap, 0, sizeof(reloc_kmap));
++
++      reloc_buffer = ttm_buffer_object_lookup(tfile, reloc_handle);
++      if (!reloc_buffer)
++              goto out;
++
++      if (unlikely(atomic_read(&reloc_buffer->reserved) != 1)) {
++              DRM_ERROR("Relocation buffer was not on validate list.\n");
++              ret = -EINVAL;
++              goto out;
++      }
++      
++      reloc_first_page = reloc_offset >> PAGE_SHIFT;
++      reloc_last_page =
++          (reloc_offset +
++           num_relocs * sizeof(struct drm_psb_reloc)) >> PAGE_SHIFT;
++      reloc_num_pages = reloc_last_page - reloc_first_page + 1;
++      reloc_offset &= ~PAGE_MASK;
++
++      if (reloc_num_pages > PSB_MAX_RELOC_PAGES) {
++              DRM_ERROR("Relocation buffer is too large\n");
++              ret = -EINVAL;
++              goto out;
++      }
++
++      DRM_WAIT_ON(ret, dev_priv->rel_mapped_queue, 3 * DRM_HZ,
++                  (registered =
++                   psb_ok_to_map_reloc(dev_priv, reloc_num_pages)));
++
++      if (ret == -EINTR) {
++              ret = -ERESTART;
++              goto out;
++      }
++      if (ret) {
++              DRM_ERROR("Error waiting for space to map "
++                        "relocation buffer.\n");
++              goto out;
++      }
++
++      ret = ttm_bo_kmap(reloc_buffer, reloc_first_page,
++                        reloc_num_pages, &reloc_kmap);
++
++      if (ret) {
++              DRM_ERROR("Could not map relocation buffer.\n"
++                        "\tReloc buffer id 0x%08x.\n"
++                        "\tReloc first page %d.\n"
++                        "\tReloc num pages %d.\n",
++                        reloc_handle, reloc_first_page, reloc_num_pages);
++              goto out;
++      }
++
++      reloc = (struct drm_psb_reloc *)
++          ((unsigned long)
++           ttm_kmap_obj_virtual(&reloc_kmap,
++                                &reloc_is_iomem) + reloc_offset);
++
++      for (count = 0; count < num_relocs; ++count) {
++              ret = psb_apply_reloc(dev_priv, fence_class,
++                                    reloc, context->buffers,
++                                    num_buffers, &dst_cache,
++                                    no_wait, interruptible);
++              if (ret)
++                      goto out1;
++              reloc++;
++      }
++
++out1:
++      ttm_bo_kunmap(&reloc_kmap);
++out:
++      if (registered) {
++              spin_lock(&dev_priv->reloc_lock);
++              dev_priv->rel_mapped_pages -= reloc_num_pages;
++              spin_unlock(&dev_priv->reloc_lock);
++              DRM_WAKEUP(&dev_priv->rel_mapped_queue);
++      }
++
++      psb_clear_dstbuf_cache(&dst_cache);
++      if (reloc_buffer)
++              ttm_bo_unref(&reloc_buffer);
++      return ret;
++}
++
++void psb_fence_or_sync(struct drm_file *file_priv,
++                     uint32_t engine,
++                     uint32_t fence_types,
++                     uint32_t fence_flags,
++                     struct list_head *list,
++                     struct psb_ttm_fence_rep *fence_arg,
++                     struct ttm_fence_object **fence_p)
++{
++      struct drm_device *dev = file_priv->minor->dev;
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      struct ttm_fence_device *fdev = &dev_priv->fdev;
++      int ret;
++      struct ttm_fence_object *fence;
++      struct ttm_object_file *tfile = psb_fpriv(file_priv)->tfile;
++      uint32_t handle;
++
++      ret = ttm_fence_user_create(fdev, tfile,
++                                  engine, fence_types,
++                                  TTM_FENCE_FLAG_EMIT, &fence, &handle);
++      if (ret) {
++
++              /*
++               * Fence creation failed.
++               * Fall back to synchronous operation and idle the engine.
++               */
++
++              psb_idle_engine(dev, engine);
++              if (!(fence_flags & DRM_PSB_FENCE_NO_USER)) {
++
++                      /*
++                       * Communicate to user-space that
++                       * fence creation has failed and that
++                       * the engine is idle.
++                       */
++
++                      fence_arg->handle = ~0;
++                      fence_arg->error = ret;
++              }
++
++              ttm_eu_backoff_reservation(list);
++              if (fence_p)
++                      *fence_p = NULL;
++              return;
++      }
++
++      ttm_eu_fence_buffer_objects(list, fence);
++      if (!(fence_flags & DRM_PSB_FENCE_NO_USER)) {
++              struct ttm_fence_info info = ttm_fence_get_info(fence);
++              fence_arg->handle = handle;
++              fence_arg->fence_class = ttm_fence_class(fence);
++              fence_arg->fence_type = ttm_fence_types(fence);
++              fence_arg->signaled_types = info.signaled_types;
++              fence_arg->error = 0;
++      } else {
++              ret =
++                  ttm_ref_object_base_unref(tfile, handle,
++                                            ttm_fence_type);
++              BUG_ON(ret);
++      }
++
++      if (fence_p)
++              *fence_p = fence;
++      else if (fence)
++              ttm_fence_object_unref(&fence);
++}
++
++
++
++static int psb_cmdbuf_2d(struct drm_file *priv,
++                       struct list_head *validate_list,
++                       uint32_t fence_type,
++                       struct drm_psb_cmdbuf_arg *arg,
++                       struct ttm_buffer_object *cmd_buffer,
++                       struct psb_ttm_fence_rep *fence_arg)
++{
++      struct drm_device *dev = priv->minor->dev;
++      int ret;
++
++      ret = psb_submit_copy_cmdbuf(dev, cmd_buffer, arg->cmdbuf_offset,
++                                   arg->cmdbuf_size, PSB_ENGINE_2D,
++                                   NULL);
++      if (ret)
++              goto out_unlock;
++
++      psb_fence_or_sync(priv, PSB_ENGINE_2D, fence_type,
++                        arg->fence_flags, validate_list, fence_arg,
++                        NULL);
++
++      mutex_lock(&cmd_buffer->mutex);
++      if (cmd_buffer->sync_obj != NULL)
++              ttm_fence_sync_obj_unref(&cmd_buffer->sync_obj);
++      mutex_unlock(&cmd_buffer->mutex);
++out_unlock:
++      return ret;
++}
++
++#if 0
++static int psb_dump_page(struct ttm_buffer_object *bo,
++                       unsigned int page_offset, unsigned int num)
++{
++      struct ttm_bo_kmap_obj kmobj;
++      int is_iomem;
++      uint32_t *p;
++      int ret;
++      unsigned int i;
++
++      ret = ttm_bo_kmap(bo, page_offset, 1, &kmobj);
++      if (ret)
++              return ret;
++
++      p = ttm_kmap_obj_virtual(&kmobj, &is_iomem);
++      for (i = 0; i < num; ++i)
++              PSB_DEBUG_GENERAL("0x%04x: 0x%08x\n", i, *p++);
++
++      ttm_bo_kunmap(&kmobj);
++      return 0;
++}
++#endif
++
++static void psb_idle_engine(struct drm_device *dev, int engine)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      uint32_t dummy;
++      unsigned long dummy2;
++
++      switch (engine) {
++      case PSB_ENGINE_2D:
++
++              /*
++               * Make sure we flush 2D properly using a dummy
++               * fence sequence emit.
++               */
++
++              (void) psb_fence_emit_sequence(&dev_priv->fdev,
++                                             PSB_ENGINE_2D, 0,
++                                             &dummy, &dummy2);
++              psb_2d_lock(dev_priv);
++              (void) psb_idle_2d(dev);
++              psb_2d_unlock(dev_priv);
++              break;
++      case PSB_ENGINE_TA:
++      case PSB_ENGINE_RASTERIZER:
++      case PSB_ENGINE_HPRAST:
++              (void) psb_idle_3d(dev);
++              break;
++      default:
++              
++              /*
++               * FIXME: Insert video engine idle command here.
++               */
++
++              break;
++      }
++}
++
++static int psb_handle_copyback(struct drm_device *dev,
++                             struct psb_context *context,
++                             int ret)
++{
++      int err = ret;
++      struct ttm_validate_buffer *entry;
++      struct psb_validate_arg arg;
++      struct list_head *list = &context->validate_list;
++
++      if (ret) {
++              ttm_eu_backoff_reservation(list);
++              ttm_eu_backoff_reservation(&context->kern_validate_list);
++      }
++
++
++      if (ret != -EAGAIN && ret != -EINTR && ret != -ERESTART) {
++              list_for_each_entry(entry, list, head) {
++                      struct psb_validate_buffer *vbuf =
++                          container_of(entry, struct psb_validate_buffer,
++                                       base);
++                      arg.handled = 1;
++                      arg.ret = vbuf->ret;
++                      if (!arg.ret) {
++                              struct ttm_buffer_object *bo = entry->bo;
++                              mutex_lock(&bo->mutex);
++                              arg.d.rep.gpu_offset = bo->offset;
++                              arg.d.rep.placement = bo->mem.flags;
++                              arg.d.rep.fence_type_mask =
++                                      (uint32_t) (unsigned long)
++                                      entry->new_sync_obj_arg;
++                              mutex_unlock(&bo->mutex);
++                      }
++
++                      if (__copy_to_user(vbuf->user_val_arg,
++                                         &arg, sizeof(arg)))
++                              err = -EFAULT;
++
++                      if (arg.ret)
++                              break;
++              }
++      }
++
++      return err;
++}
++
++
++
++static int psb_feedback_buf(struct ttm_object_file *tfile,
++                          struct psb_context *context,
++                          uint32_t feedback_ops,
++                          uint32_t handle,
++                          uint32_t offset,
++                          uint32_t feedback_breakpoints,
++                          uint32_t feedback_size,
++                          struct psb_feedback_info *feedback)
++{
++      struct ttm_buffer_object *bo;
++      struct page *page;
++      uint32_t page_no;
++      uint32_t page_offset;
++      int ret;
++
++      if (feedback_ops & ~PSB_FEEDBACK_OP_VISTEST) {
++              DRM_ERROR("Illegal feedback op.\n");
++              return -EINVAL;
++      }
++
++      if (feedback_breakpoints != 0) {
++              DRM_ERROR("Feedback breakpoints not implemented yet.\n");
++              return -EINVAL;
++      }
++
++      if (feedback_size < PSB_HW_FEEDBACK_SIZE * sizeof(uint32_t)) {
++              DRM_ERROR("Feedback buffer size too small.\n");
++              return -EINVAL;
++      }
++
++      page_offset = offset & ~PAGE_MASK;
++      if ((PAGE_SIZE - PSB_HW_FEEDBACK_SIZE * sizeof(uint32_t))
++          < page_offset) {
++              DRM_ERROR("Illegal feedback buffer alignment.\n");
++              return -EINVAL;
++      }
++
++      bo = ttm_buffer_object_lookup(tfile, handle);
++      if (unlikely(bo == NULL)) {
++              DRM_ERROR("Failed looking up feedback buffer.\n");
++              return -EINVAL;
++      }
++
++
++      ret = psb_validate_kernel_buffer(context, bo,
++                                       PSB_ENGINE_TA,
++                                       TTM_PL_FLAG_SYSTEM |
++                                       TTM_PL_FLAG_CACHED |
++                                       PSB_GPU_ACCESS_WRITE |
++                                       PSB_BO_FLAG_FEEDBACK,
++                                       TTM_PL_MASK_MEM &
++                                       ~(TTM_PL_FLAG_SYSTEM |
++                                         TTM_PL_FLAG_CACHED));
++      if (unlikely(ret != 0))
++              goto out_unref;
++
++      page_no = offset >> PAGE_SHIFT;
++      if (unlikely(page_no >= bo->num_pages)) {
++              ret = -EINVAL;
++              DRM_ERROR("Illegal feedback buffer offset.\n");
++              goto out_unref;
++      }
++
++      if (unlikely(bo->ttm == NULL)) {
++              ret = -EINVAL;
++              DRM_ERROR("Vistest buffer without TTM.\n");
++              goto out_unref;
++      }
++
++      page = ttm_tt_get_page(bo->ttm, page_no);
++      if (unlikely(page == NULL)) {
++              ret = -ENOMEM;
++              goto out_unref;
++      }
++
++      feedback->page = page;
++      feedback->offset = page_offset;
++
++      /*
++       * Note: bo referece transferred.
++       */
++
++      feedback->bo = bo;
++      return 0;
++
++out_unref:
++      ttm_bo_unref(&bo);
++      return ret;
++}
++
++inline int psb_try_power_down_sgx(struct drm_device *dev)
++{
++      if(powermgmt_is_gfx_busy()){
++              return 0;
++      }
++
++      return powermgmt_suspend_islands(dev->pdev, PSB_GRAPHICS_ISLAND, false);
++}
++
++void psb_init_ospm(struct drm_psb_private *dev_priv)
++{
++      static int init;
++      if (!init) {
++              dev_priv->apm_reg = MSG_READ32(PSB_PUNIT_PORT, PSB_APMBA);
++              dev_priv->apm_base = dev_priv->apm_reg & 0xffff;
++              PSB_DEBUG_PM("apm_reg:%x\n", dev_priv->apm_reg);
++#ifdef OSPM_STAT
++              dev_priv->graphics_state = PSB_PWR_STATE_D0;
++              dev_priv->gfx_last_mode_change = jiffies;
++              dev_priv->gfx_d0_time = 0;
++              dev_priv->gfx_d0i3_time = 0;
++              dev_priv->gfx_d3_time = 0;
++#endif
++              init = 1;
++      }
++}
++
++int psb_cmdbuf_ioctl(struct drm_device *dev, void *data,
++                   struct drm_file *file_priv)
++{
++      struct drm_psb_cmdbuf_arg *arg = data;
++      int ret = 0;
++      struct ttm_object_file *tfile = psb_fpriv(file_priv)->tfile;
++      struct ttm_buffer_object *cmd_buffer = NULL;
++      struct ttm_buffer_object *ta_buffer = NULL;
++      struct ttm_buffer_object *oom_buffer = NULL;
++      struct psb_ttm_fence_rep fence_arg;
++      struct drm_psb_scene user_scene;
++      struct psb_scene_pool *pool = NULL;
++      struct psb_scene *scene = NULL;
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *)file_priv->minor->dev->dev_private;
++      int engine;
++      struct psb_feedback_info feedback;
++      int po_correct;
++      struct psb_context *context;
++      unsigned num_buffers;
++
++      num_buffers = PSB_NUM_VALIDATE_BUFFERS;
++
++      ret = ttm_read_lock(&dev_priv->ttm_lock, true);
++      if (unlikely(ret != 0))
++              return ret;
++
++      if (arg->engine == PSB_ENGINE_VIDEO)
++              powermgmt_using_hw_begin(dev->pdev, PSB_VIDEO_DEC_ISLAND, true);
++
++      if (arg->engine == LNC_ENGINE_ENCODE)
++              powermgmt_using_hw_begin(dev->pdev, PSB_VIDEO_ENC_ISLAND, true);
++      
++      if ((arg->engine == PSB_ENGINE_2D) || (arg->engine == PSB_ENGINE_TA) ||
++          (arg->engine == PSB_ENGINE_RASTERIZER))
++              powermgmt_using_hw_begin(dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      
++      ret = mutex_lock_interruptible(&dev_priv->cmdbuf_mutex);
++      if (unlikely(ret != 0))
++              goto out_err0;
++
++
++      context = &dev_priv->context;
++      context->used_buffers = 0;
++      context->fence_types = 0;
++      BUG_ON(!list_empty(&context->validate_list));
++      BUG_ON(!list_empty(&context->kern_validate_list));
++
++      if (unlikely(context->buffers == NULL)) {
++              context->buffers = vmalloc(PSB_NUM_VALIDATE_BUFFERS *
++                                         sizeof(*context->buffers));
++              if (unlikely(context->buffers == NULL)) {
++                      ret = -ENOMEM;
++                      goto out_err1;
++              }
++      }
++
++      ret = psb_reference_buffers(file_priv,
++                                  arg->buffer_list,
++                                  context);
++
++      if (unlikely(ret != 0))
++              goto out_err1;
++
++      context->val_seq = atomic_add_return(1, &dev_priv->val_seq);
++
++      ret = ttm_eu_reserve_buffers(&context->validate_list,
++                                   context->val_seq);
++      if (unlikely(ret != 0)) {
++              goto out_err2;
++      }
++
++      engine = (arg->engine == PSB_ENGINE_RASTERIZER) ?
++          PSB_ENGINE_TA : arg->engine;
++
++      ret = psb_validate_buffer_list(file_priv, engine,
++                                     context, &po_correct);
++      if (unlikely(ret != 0))
++              goto out_err3;
++
++      if (!po_correct) {
++              ret = psb_fixup_relocs(file_priv, engine, arg->num_relocs,
++                                     arg->reloc_offset,
++                                     arg->reloc_handle, context, 0, 1);
++              if (unlikely(ret != 0))
++                      goto out_err3;
++
++      }
++
++      cmd_buffer = ttm_buffer_object_lookup(tfile, arg->cmdbuf_handle);
++      if (unlikely(cmd_buffer == NULL)) {
++              ret = -EINVAL;
++              goto out_err4;
++      }
++
++      switch (arg->engine) {
++      case PSB_ENGINE_2D:
++              ret = psb_cmdbuf_2d(file_priv, &context->validate_list,
++                                  context->fence_types, arg, cmd_buffer,
++                                  &fence_arg);
++              if (unlikely(ret != 0))
++                      goto out_err4;
++              break;
++      case PSB_ENGINE_VIDEO:
++              ret = psb_cmdbuf_video(file_priv, &context->validate_list,
++                                     context->fence_types, arg,
++                                     cmd_buffer, &fence_arg);
++
++              if (unlikely(ret != 0))
++                      goto out_err4;
++              break;
++      case LNC_ENGINE_ENCODE:
++              ret = lnc_cmdbuf_video(file_priv, &context->validate_list,
++                                     context->fence_types, arg,
++                                     cmd_buffer, &fence_arg);
++              if (unlikely(ret != 0))
++                      goto out_err4;
++              break;
++      case PSB_ENGINE_RASTERIZER:
++              ret = psb_cmdbuf_raster(file_priv, context,
++                                      arg, cmd_buffer, &fence_arg);
++              if (unlikely(ret != 0))
++                      goto out_err4;
++              break;
++      case PSB_ENGINE_TA:
++              if (arg->ta_handle == arg->cmdbuf_handle) {
++                      ta_buffer = ttm_bo_reference(cmd_buffer);
++              } else {
++                      ta_buffer =
++                          ttm_buffer_object_lookup(tfile,
++                                                   arg->ta_handle);
++                      if (!ta_buffer) {
++                              ret = -EINVAL;
++                              goto out_err4;
++                      }
++              }
++              if (arg->oom_size != 0) {
++                      if (arg->oom_handle == arg->cmdbuf_handle) {
++                              oom_buffer = ttm_bo_reference(cmd_buffer);
++                      } else {
++                              oom_buffer =
++                                  ttm_buffer_object_lookup(tfile,
++                                                           arg->
++                                                           oom_handle);
++                              if (!oom_buffer) {
++                                      ret = -EINVAL;
++                                      goto out_err4;
++                              }
++                      }
++              }
++
++              ret = copy_from_user(&user_scene, (void __user *)
++                                   ((unsigned long) arg->scene_arg),
++                                   sizeof(user_scene));
++              if (ret)
++                      goto out_err4;
++
++              if (!user_scene.handle_valid) {
++                      pool = psb_scene_pool_alloc(file_priv, 0,
++                                                  user_scene.num_buffers,
++                                                  user_scene.w,
++                                                  user_scene.h);
++                      if (!pool) {
++                              ret = -ENOMEM;
++                              goto out_err0;
++                      }
++
++                      user_scene.handle = psb_scene_pool_handle(pool);
++                      user_scene.handle_valid = 1;
++                      ret = copy_to_user((void __user *)
++                                         ((unsigned long) arg->
++                                          scene_arg), &user_scene,
++                                         sizeof(user_scene));
++
++                      if (ret)
++                              goto out_err4;
++              } else {
++                      pool =
++                          psb_scene_pool_lookup(file_priv,
++                                                user_scene.handle, 1);
++                      if (!pool) {
++                              ret = -EINVAL;
++                              goto out_err4;
++                      }
++              }
++
++              ret = psb_validate_scene_pool(context, pool,
++                                            user_scene.w,
++                                            user_scene.h,
++                                            arg->ta_flags &
++                                            PSB_TA_FLAG_LASTPASS, &scene);
++              if (ret)
++                      goto out_err4;
++
++              memset(&feedback, 0, sizeof(feedback));
++              if (arg->feedback_ops) {
++                      ret = psb_feedback_buf(tfile,
++                                             context,
++                                             arg->feedback_ops,
++                                             arg->feedback_handle,
++                                             arg->feedback_offset,
++                                             arg->feedback_breakpoints,
++                                             arg->feedback_size,
++                                             &feedback);
++                      if (ret)
++                              goto out_err4;
++              }
++              ret = psb_cmdbuf_ta(file_priv, context,
++                                  arg, cmd_buffer, ta_buffer,
++                                  oom_buffer, scene, &feedback,
++                                  &fence_arg);
++              if (ret)
++                      goto out_err4;
++              break;
++      default:
++              DRM_ERROR
++                  ("Unimplemented command submission mechanism (%x).\n",
++                   arg->engine);
++              ret = -EINVAL;
++              goto out_err4;
++      }
++
++      if (!(arg->fence_flags & DRM_PSB_FENCE_NO_USER)) {
++              ret = copy_to_user((void __user *)
++                                 ((unsigned long) arg->fence_arg),
++                                 &fence_arg, sizeof(fence_arg));
++      }
++
++out_err4:
++      if (scene)
++              psb_scene_unref(&scene);
++      if (pool)
++              psb_scene_pool_unref(&pool);
++      if (cmd_buffer)
++              ttm_bo_unref(&cmd_buffer);
++      if (ta_buffer)
++              ttm_bo_unref(&ta_buffer);
++      if (oom_buffer)
++              ttm_bo_unref(&oom_buffer);
++out_err3:
++      ret = psb_handle_copyback(dev, context, ret);
++out_err2:
++      psb_unreference_buffers(context);
++out_err1:
++      mutex_unlock(&dev_priv->cmdbuf_mutex);
++out_err0:
++      ttm_read_unlock(&dev_priv->ttm_lock);
++
++      if (arg->engine == PSB_ENGINE_VIDEO)
++              powermgmt_using_hw_end(PSB_VIDEO_DEC_ISLAND);
++
++      if (arg->engine == LNC_ENGINE_ENCODE)
++              powermgmt_using_hw_end(PSB_VIDEO_ENC_ISLAND);
++
++      if ((arg->engine == PSB_ENGINE_2D) || (arg->engine == PSB_ENGINE_TA)
++              || (arg->engine == PSB_ENGINE_RASTERIZER))
++              powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      return ret;
++}
++
++static int psb_do_init_pageflip(struct drm_device * dev)
++{
++      struct drm_psb_private *dev_priv = dev->dev_private;
++      u32 pipe_status[2];
++      int pipe, dspbase;
++
++      if (!powermgmt_using_hw_begin(dev->pdev, PSB_DISPLAY_ISLAND, false))
++              return -1;
++
++      dev_priv->dri_page_flipping = 1;
++      dev_priv->current_page = 0;
++      for (pipe = 0; pipe < 2; pipe++){
++              pipe_status[pipe] = REG_READ(pipe == 0 ? PIPEACONF : PIPEBCONF);
++              if (pipe_status[pipe] & PIPEACONF_ENABLE){
++                      dev_priv->pipe_active[pipe] = 1;
++                      dev_priv->saved_stride[pipe] = REG_READ((pipe == 0) ? DSPASTRIDE : DSPBSTRIDE);
++                      dspbase = (pipe == 0 ? DSPABASE : DSPBBASE);
++                      if (IS_MRST(dev) && (pipe == 0))
++                              dspbase = MRST_DSPABASE;                        
++                      if (IS_MRST(dev)) {
++                              dev_priv->saved_start[pipe] = REG_READ(pipe == 0 ? DSPASURF : DSPBSURF);
++                              dev_priv->saved_offset[pipe] = REG_READ(dspbase);
++                      } else {
++                              dev_priv->saved_start[pipe] = REG_READ(pipe == 0 ? DSPABASE : DSPBBASE);
++                              dev_priv->saved_offset[pipe] = 0;
++                      }
++              }
++              else
++                      dev_priv->pipe_active[pipe] = 0;
++      }
++      
++      powermgmt_using_hw_end(PSB_DISPLAY_ISLAND);
++
++      return 0;
++}
++
++int psb_page_flip(struct drm_device *dev, void *data,
++                   struct drm_file *file_priv)
++{
++      struct drm_psb_pageflip_arg *arg = data;
++      int pipe;
++
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *)file_priv->minor->dev->dev_private;
++      struct psb_scheduler *scheduler = &dev_priv->scheduler;
++      struct psb_task *task = NULL;
++
++      if (!dev_priv->dri_page_flipping)
++              if (psb_do_init_pageflip(dev))
++                      return 0;
++
++      task = kzalloc(sizeof(*task), GFP_KERNEL);
++      if (!task)
++              return -ENOMEM;
++      INIT_LIST_HEAD(&task->head);
++      INIT_LIST_HEAD(&task->buf.head);
++      task->task_type = psb_flip_task;
++
++      spin_lock_irq(&scheduler->lock);
++      list_add_tail(&task->head, &scheduler->ta_queue);
++      /**
++      * From this point we may no longer dereference task,
++      * as the object it points to may be freed by another thread.
++      */
++              
++      task = NULL;
++      spin_unlock_irq(&scheduler->lock);
++      for (pipe=0; pipe<2; pipe++) {
++              if (dev_priv->pipe_active[pipe] == 1) {
++                      dev_priv->flip_start[pipe] = arg->flip_offset;
++                      dev_priv->flip_offset[pipe] = dev_priv->saved_offset[pipe];
++                      dev_priv->flip_stride[pipe] = dev_priv->saved_stride[pipe];
++              }
++      }
++      return 0;
++}
++
++int psb_flip_set_base(struct drm_psb_private *dev_priv, int pipe)
++{
++      struct drm_device *dev = dev_priv->dev;
++
++      unsigned long Start, Offset, Stride;
++      int dspbase = (pipe == 0 ? DSPABASE : DSPBBASE);
++      int dspsurf = (pipe == 0 ? DSPASURF : DSPBSURF);
++      int dspstride = (pipe == 0) ? DSPASTRIDE : DSPBSTRIDE;
++
++      if (IS_MRST(dev) && (pipe == 0))
++              dspbase = MRST_DSPABASE;
++
++      Start = dev_priv->flip_start[pipe];
++      Offset = dev_priv->flip_offset[pipe];
++      Stride = dev_priv->flip_stride[pipe];
++
++      REG_WRITE(dspstride, Stride);   
++
++      DRM_DEBUG("Writing base: %08lX Offset: %08lX Stride: %08lXn", Start, Offset, Stride);
++      if (IS_MRST(dev)) {
++              REG_WRITE(dspbase, Offset);
++              REG_READ(dspbase);
++              REG_WRITE(dspsurf, Start);
++              REG_READ(dspsurf);
++      } else {
++              REG_WRITE(dspbase, Start + Offset);
++              REG_READ(dspbase);
++      }
++
++      if (dev_priv->dri_page_flipping == 1)
++              dev_priv->current_page = 1 - dev_priv->current_page;
++
++      return 0;
++}
++
+diff --git a/drivers/gpu/drm/psb/psb_sgx.h b/drivers/gpu/drm/psb/psb_sgx.h
+new file mode 100644
+index 0000000..9321b98
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_sgx.h
+@@ -0,0 +1,41 @@
++/*
++ * Copyright (c) 2008, Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
++ * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
++ * SOFTWARE.
++ *
++ * Authors:
++ *    Eric Anholt <eric@anholt.net>
++ *
++ **/
++#ifndef _PSB_SGX_H_
++#define _PSB_SGX_H_
++
++extern int psb_submit_video_cmdbuf(struct drm_device *dev,
++                             struct ttm_buffer_object *cmd_buffer,
++                             unsigned long cmd_offset,
++                             unsigned long cmd_size,
++                             struct ttm_fence_object *fence);
++
++extern int psb_2d_wait_available(struct drm_psb_private *dev_priv,
++                        unsigned size);
++extern int drm_idle_check_interval;
++extern int drm_psb_ospm;
++
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_socket.c b/drivers/gpu/drm/psb/psb_socket.c
+new file mode 100644
+index 0000000..4814e55
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_socket.c
+@@ -0,0 +1,340 @@
++/*
++ * kernel userspace event delivery
++ *
++ * Copyright (C) 2004 Red Hat, Inc.  All rights reserved.
++ * Copyright (C) 2004 Novell, Inc.  All rights reserved.
++ * Copyright (C) 2004 IBM, Inc. All rights reserved.
++ * Copyright (C) 2009 Intel Corporation.  All rights reserved.
++ *
++ * Licensed under the GNU GPL v2.
++ *
++ * Authors:
++ *    Robert Love             <rml@novell.com>
++ *    Kay Sievers             <kay.sievers@vrfy.org>
++ *    Arjan van de Ven        <arjanv@redhat.com>
++ *    Greg Kroah-Hartman      <greg@kroah.com>
++ *      James C. Gualario       <james.c.gualario@intel.com>
++ *
++ */
++
++#include <linux/spinlock.h>
++#include <linux/string.h>
++#include <linux/kobject.h>
++#include <linux/module.h>
++#include <linux/socket.h>
++#include <linux/skbuff.h>
++#include <linux/netlink.h>
++#include <net/sock.h>
++
++#define NETLINK_PSB_KOBJECT_UEVENT    31
++
++u64 psb_uevent_seqnum;
++char psb_uevent_helper[UEVENT_HELPER_PATH_LEN] = CONFIG_UEVENT_HELPER_PATH;
++static DEFINE_SPINLOCK(sequence_lock);
++#if defined(CONFIG_NET)
++static struct sock *uevent_sock;
++#endif
++
++/* the strings here must match the enum in include/linux/kobject.h */
++static const char *psb_kobject_actions[] = {
++      [KOBJ_ADD] =            "add",
++      [KOBJ_REMOVE] =         "remove",
++      [KOBJ_CHANGE] =         "change",
++      [KOBJ_MOVE] =           "move",
++      [KOBJ_ONLINE] =         "online",
++      [KOBJ_OFFLINE] =        "offline",
++};
++
++/**
++ * kobject_action_type - translate action string to numeric type
++ *
++ * @buf: buffer containing the action string, newline is ignored
++ * @len: length of buffer
++ * @type: pointer to the location to store the action type
++ *
++ * Returns 0 if the action string was recognized.
++ */
++int psb_kobject_action_type(const char *buf, size_t count,
++                      enum kobject_action *type)
++{
++      enum kobject_action action;
++      int ret = -EINVAL;
++
++      if (count && (buf[count-1] == '\n' || buf[count-1] == '\0'))
++              count--;
++
++      if (!count)
++              goto out;
++
++      for (action = 0; action < ARRAY_SIZE(psb_kobject_actions); action++) {
++              if (strncmp(psb_kobject_actions[action], buf, count) != 0)
++                      continue;
++              if (psb_kobject_actions[action][count] != '\0')
++                      continue;
++              *type = action;
++              ret = 0;
++              break;
++      }
++out:
++      return ret;
++}
++
++/**
++ * psb_kobject_uevent_env - send an uevent with environmental data
++ *
++ * @action: action that is happening
++ * @kobj: struct kobject that the action is happening to
++ * @envp_ext: pointer to environmental data
++ *
++ * Returns 0 if kobject_uevent() is completed with success or the
++ * corresponding error when it fails.
++ */
++int psb_kobject_uevent_env(struct kobject *kobj, enum kobject_action action,
++                     char *envp_ext[])
++{
++      struct kobj_uevent_env *env;
++      const char *action_string = psb_kobject_actions[action];
++      const char *devpath = NULL;
++      const char *subsystem;
++      struct kobject *top_kobj;
++      struct kset *kset;
++      struct kset_uevent_ops *uevent_ops;
++      u64 seq;
++      int i = 0;
++      int retval = 0;
++
++      pr_debug("kobject: '%s' (%p): %s\n",
++               kobject_name(kobj), kobj, __func__);
++
++      /* search the kset we belong to */
++      top_kobj = kobj;
++      while (!top_kobj->kset && top_kobj->parent)
++              top_kobj = top_kobj->parent;
++
++      if (!top_kobj->kset) {
++              pr_debug("kobject: '%s' (%p): %s: attempted to send uevent "
++                       "without kset!\n", kobject_name(kobj), kobj,
++                       __func__);
++              return -EINVAL;
++      }
++
++      kset = top_kobj->kset;
++      uevent_ops = kset->uevent_ops;
++
++      /* skip the event, if uevent_suppress is set*/
++      if (kobj->uevent_suppress) {
++              pr_debug("kobject: '%s' (%p): %s: uevent_suppress "
++                               "caused the event to drop!\n",
++                               kobject_name(kobj), kobj, __func__);
++              return 0;
++      }
++      /* skip the event, if the filter returns zero. */
++      if (uevent_ops && uevent_ops->filter)
++              if (!uevent_ops->filter(kset, kobj)) {
++                      pr_debug("kobject: '%s' (%p): %s: filter function "
++                               "caused the event to drop!\n",
++                               kobject_name(kobj), kobj, __func__);
++                      return 0;
++              }
++
++      /* originating subsystem */
++      if (uevent_ops && uevent_ops->name)
++              subsystem = uevent_ops->name(kset, kobj);
++      else
++              subsystem = kobject_name(&kset->kobj);
++      if (!subsystem) {
++              pr_debug("kobject: '%s' (%p): %s: unset subsystem caused the "
++                       "event to drop!\n", kobject_name(kobj), kobj,
++                       __func__);
++              return 0;
++      }
++
++      /* environment buffer */
++      env = kzalloc(sizeof(struct kobj_uevent_env), GFP_KERNEL);
++      if (!env)
++              return -ENOMEM;
++
++      /* complete object path */
++      devpath = kobject_get_path(kobj, GFP_KERNEL);
++      if (!devpath) {
++              retval = -ENOENT;
++              goto exit;
++      }
++
++      /* default keys */
++      retval = add_uevent_var(env, "ACTION=%s", action_string);
++      if (retval)
++              goto exit;
++      retval = add_uevent_var(env, "DEVPATH=%s", devpath);
++      if (retval)
++              goto exit;
++      retval = add_uevent_var(env, "SUBSYSTEM=%s", subsystem);
++      if (retval)
++              goto exit;
++
++      /* keys passed in from the caller */
++      if (envp_ext) {
++              for (i = 0; envp_ext[i]; i++) {
++                      retval = add_uevent_var(env, "%s", envp_ext[i]);
++                      if (retval)
++                              goto exit;
++              }
++      }
++
++      /* let the kset specific function add its stuff */
++      if (uevent_ops && uevent_ops->uevent) {
++              retval = uevent_ops->uevent(kset, kobj, env);
++              if (retval) {
++                      pr_debug("kobject: '%s' (%p): %s: uevent() returned "
++                               "%d\n", kobject_name(kobj), kobj,
++                               __func__, retval);
++                      goto exit;
++              }
++      }
++
++      /*
++       * Mark "add" and "remove" events in the object to ensure proper
++       * events to userspace during automatic cleanup. If the object did
++       * send an "add" event, "remove" will automatically generated by
++       * the core, if not already done by the caller.
++       */
++      if (action == KOBJ_ADD)
++              kobj->state_add_uevent_sent = 1;
++      else if (action == KOBJ_REMOVE)
++              kobj->state_remove_uevent_sent = 1;
++
++      /* we will send an event, so request a new sequence number */
++      spin_lock(&sequence_lock);
++      seq = ++psb_uevent_seqnum;
++      spin_unlock(&sequence_lock);
++      retval = add_uevent_var(env, "SEQNUM=%llu", (unsigned long long)seq);
++      if (retval)
++              goto exit;
++
++#if defined(CONFIG_NET)
++      /* send netlink message */
++      if (uevent_sock) {
++              struct sk_buff *skb;
++              size_t len;
++
++              /* allocate message with the maximum possible size */
++              len = strlen(action_string) + strlen(devpath) + 2;
++              skb = alloc_skb(len + env->buflen, GFP_KERNEL);
++              if (skb) {
++                      char *scratch;
++
++                      /* add header */
++                      scratch = skb_put(skb, len);
++                      sprintf(scratch, "%s@%s", action_string, devpath);
++
++                      /* copy keys to our continuous event payload buffer */
++                      for (i = 0; i < env->envp_idx; i++) {
++                              len = strlen(env->envp[i]) + 1;
++                              scratch = skb_put(skb, len);
++                              strcpy(scratch, env->envp[i]);
++                      }
++
++                      NETLINK_CB(skb).dst_group = 1;
++                      retval = netlink_broadcast(uevent_sock, skb, 0, 1,
++                                                 GFP_KERNEL);
++                      /* ENOBUFS should be handled in userspace */
++                      if (retval == -ENOBUFS)
++                              retval = 0;
++              } else
++                      retval = -ENOMEM;
++      }
++#endif
++
++      /* call psb_uevent_helper, usually only enabled during early boot */
++      if (psb_uevent_helper[0]) {
++              char *argv[3];
++
++              argv[0] = psb_uevent_helper;
++              argv[1] = (char *)subsystem;
++              argv[2] = NULL;
++              retval = add_uevent_var(env, "HOME=/");
++              if (retval)
++                      goto exit;
++              retval = add_uevent_var(env,
++                                      "PATH=/sbin:/bin:/usr/sbin:/usr/bin");
++              if (retval)
++                      goto exit;
++
++              retval = call_usermodehelper(argv[0], argv,
++                                           env->envp, UMH_WAIT_EXEC);
++      }
++
++exit:
++      kfree(devpath);
++      kfree(env);
++      return retval;
++}
++EXPORT_SYMBOL_GPL(psb_kobject_uevent_env);
++
++/**
++ * psb_kobject_uevent - notify userspace by ending an uevent
++ *
++ * @action: action that is happening
++ * @kobj: struct kobject that the action is happening to
++ *
++ * Returns 0 if psb_kobject_uevent() is completed with success or the
++ * corresponding error when it fails.
++ */
++int psb_kobject_uevent(struct kobject *kobj, enum kobject_action action)
++{
++      return psb_kobject_uevent_env(kobj, action, NULL);
++}
++EXPORT_SYMBOL_GPL(psb_kobject_uevent);
++
++/**
++ * psb_add_uevent_var - add key value string to the environment buffer
++ * @env: environment buffer structure
++ * @format: printf format for the key=value pair
++ *
++ * Returns 0 if environment variable was added successfully or -ENOMEM
++ * if no space was available.
++ */
++int psb_add_uevent_var(struct kobj_uevent_env *env, const char *format, ...)
++{
++      va_list args;
++      int len;
++
++      if (env->envp_idx >= ARRAY_SIZE(env->envp)) {
++              WARN(1, KERN_ERR "psb_add_uevent_var: too many keys\n");
++              return -ENOMEM;
++      }
++
++      va_start(args, format);
++      len = vsnprintf(&env->buf[env->buflen],
++                      sizeof(env->buf) - env->buflen,
++                      format, args);
++      va_end(args);
++
++      if (len >= (sizeof(env->buf) - env->buflen)) {
++              WARN(1,
++                   KERN_ERR "psb_add_uevent_var: buffer size too small\n");
++              return -ENOMEM;
++      }
++
++      env->envp[env->envp_idx++] = &env->buf[env->buflen];
++      env->buflen += len + 1;
++      return 0;
++}
++EXPORT_SYMBOL_GPL(psb_add_uevent_var);
++
++#if defined(CONFIG_NET)
++static int __init psb_kobject_uevent_init(void)
++{
++      uevent_sock = netlink_kernel_create(&init_net,
++                                          NETLINK_PSB_KOBJECT_UEVENT,
++                                          1, NULL, NULL, THIS_MODULE);
++      if (!uevent_sock) {
++              printk(KERN_ERR "psb_kobject_uevent: failed create socket!\n");
++              return -ENODEV;
++      }
++      netlink_set_nonroot(NETLINK_PSB_KOBJECT_UEVENT, NL_NONROOT_RECV);
++      return 0;
++}
++
++postcore_initcall(psb_kobject_uevent_init);
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_ttm_glue.c b/drivers/gpu/drm/psb/psb_ttm_glue.c
+new file mode 100644
+index 0000000..cada0d9
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_ttm_glue.c
+@@ -0,0 +1,342 @@
++/**************************************************************************
++ * Copyright (c) 2008, Intel Corporation.
++ * All Rights Reserved.
++ * Copyright (c) 2008, Tungsten Graphics Inc.  Cedar Park, TX., USA.
++ * All Rights Reserved.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ * Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ * develop this driver.
++ *
++ **************************************************************************/
++/*
++ */
++
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "ttm/ttm_userobj_api.h"
++#include "psb_powermgmt.h"
++
++static struct vm_operations_struct psb_ttm_vm_ops;
++
++int psb_open(struct inode *inode, struct file *filp)
++{
++      struct drm_file *file_priv;
++      struct drm_psb_private *dev_priv;
++      struct psb_fpriv *psb_fp;
++      int ret;
++
++      ret = drm_open(inode, filp);
++      if (unlikely(ret))
++              return ret;
++
++      psb_fp = kzalloc(sizeof(*psb_fp), GFP_KERNEL);
++
++      if (unlikely(psb_fp == NULL))
++              goto out_err0;
++
++      file_priv = (struct drm_file *) filp->private_data;
++      dev_priv = psb_priv(file_priv->minor->dev);
++
++
++      psb_fp->tfile = ttm_object_file_init(dev_priv->tdev,
++                                           PSB_FILE_OBJECT_HASH_ORDER);
++      if (unlikely(psb_fp->tfile == NULL))
++              goto out_err1;
++
++      file_priv->driver_priv = psb_fp;
++
++      if (unlikely(dev_priv->bdev.dev_mapping == NULL))
++              dev_priv->bdev.dev_mapping = dev_priv->dev->dev_mapping;
++
++      return 0;
++
++out_err1:
++      kfree(psb_fp);
++out_err0:
++      (void) drm_release(inode, filp);
++      return ret;
++}
++
++int psb_release(struct inode *inode, struct file *filp)
++{
++      struct drm_file *file_priv;
++      struct psb_fpriv *psb_fp;
++      struct drm_psb_private *dev_priv;
++      int ret;
++
++      file_priv = (struct drm_file *) filp->private_data;
++      psb_fp = psb_fpriv(file_priv);
++      dev_priv = psb_priv(file_priv->minor->dev);
++
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND|PSB_DISPLAY_ISLAND, true);
++      
++      ttm_object_file_release(&psb_fp->tfile);
++      kfree(psb_fp);
++
++      if (dev_priv && dev_priv->xhw_file)
++              psb_xhw_init_takedown(dev_priv, file_priv, 1);
++
++      ret = drm_release(inode, filp);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND|PSB_DISPLAY_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev_priv->dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 0);
++
++      if (IS_MRST(dev_priv->dev))
++              schedule_delayed_work(&dev_priv->scheduler.topaz_suspend_wq, 0);
++      if (IS_MRST(dev_priv->dev))
++              schedule_delayed_work(&dev_priv->scheduler.msvdx_suspend_wq, 0);
++              
++      return ret;
++}
++
++int psb_fence_signaled_ioctl(struct drm_device *dev, void *data,
++                           struct drm_file *file_priv)
++{
++      int ret;
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      ret = ttm_fence_signaled_ioctl(psb_fpriv(file_priv)->tfile, data);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
++
++int psb_fence_finish_ioctl(struct drm_device *dev, void *data,
++                         struct drm_file *file_priv)
++{
++      int ret;
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      ret = ttm_fence_finish_ioctl(psb_fpriv(file_priv)->tfile, data);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
++
++int psb_fence_unref_ioctl(struct drm_device *dev, void *data,
++                        struct drm_file *file_priv)
++{
++      int ret;
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      ret = ttm_fence_unref_ioctl(psb_fpriv(file_priv)->tfile, data);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
++
++int psb_pl_waitidle_ioctl(struct drm_device *dev, void *data,
++                        struct drm_file *file_priv)
++{
++      return ttm_pl_waitidle_ioctl(psb_fpriv(file_priv)->tfile, data);
++}
++
++int psb_pl_setstatus_ioctl(struct drm_device *dev, void *data,
++                         struct drm_file *file_priv)
++{     
++      int ret;
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      ret = ttm_pl_setstatus_ioctl(psb_fpriv(file_priv)->tfile,
++                                    &psb_priv(dev)->ttm_lock, data);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
++
++int psb_pl_synccpu_ioctl(struct drm_device *dev, void *data,
++                       struct drm_file *file_priv)
++{
++      int ret;
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      ret = ttm_pl_synccpu_ioctl(psb_fpriv(file_priv)->tfile, data);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
++
++int psb_pl_unref_ioctl(struct drm_device *dev, void *data,
++                     struct drm_file *file_priv)
++{     
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      int ret;
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      ret = ttm_pl_unref_ioctl(psb_fpriv(file_priv)->tfile, data);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
++
++int psb_pl_reference_ioctl(struct drm_device *dev, void *data,
++                         struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      int ret;
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      ret = ttm_pl_reference_ioctl(psb_fpriv(file_priv)->tfile, data);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
++
++int psb_pl_create_ioctl(struct drm_device *dev, void *data,
++                      struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv = psb_priv(dev);
++      int ret;
++      powermgmt_using_hw_begin(dev_priv->dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      ret = ttm_pl_create_ioctl(psb_fpriv(file_priv)->tfile,
++                                 &dev_priv->bdev, &dev_priv->ttm_lock, data);
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      if (drm_psb_ospm && IS_MRST(dev))
++              schedule_delayed_work(&dev_priv->scheduler.wq, 1);
++      return ret;
++}
++
++/**
++ * psb_ttm_fault - Wrapper around the ttm fault method.
++ *
++ * @vma: The struct vm_area_struct as in the vm fault() method.
++ * @vmf: The struct vm_fault as in the vm fault() method.
++ *
++ * Since ttm_fault() will reserve buffers while faulting,
++ * we need to take the ttm read lock around it, as this driver
++ * relies on the ttm_lock in write mode to exclude all threads from
++ * reserving and thus validating buffers in aperture- and memory shortage
++ * situations.
++ */
++
++static int psb_ttm_fault(struct vm_area_struct *vma,
++                       struct vm_fault *vmf)
++{
++      struct ttm_buffer_object *bo = (struct ttm_buffer_object *)
++              vma->vm_private_data;
++      struct drm_psb_private *dev_priv =
++              container_of(bo->bdev, struct drm_psb_private, bdev);
++      int ret;
++
++      ret = ttm_read_lock(&dev_priv->ttm_lock, true);
++      if (unlikely(ret != 0))
++              return VM_FAULT_NOPAGE;
++      
++      ret = dev_priv->ttm_vm_ops->fault(vma, vmf);
++
++      ttm_read_unlock(&dev_priv->ttm_lock);
++      return ret;
++}
++
++
++int psb_mmap(struct file *filp, struct vm_area_struct *vma)
++{
++      struct drm_file *file_priv;
++      struct drm_psb_private *dev_priv;
++      int ret;
++
++      if (unlikely(vma->vm_pgoff < DRM_PSB_FILE_PAGE_OFFSET))
++              return drm_mmap(filp, vma);
++
++      file_priv = (struct drm_file *) filp->private_data;
++      dev_priv = psb_priv(file_priv->minor->dev);
++
++      ret = ttm_bo_mmap(filp, vma, &dev_priv->bdev);
++      if (unlikely(ret != 0))
++              return ret;
++
++      if (unlikely(dev_priv->ttm_vm_ops == NULL)) {
++              dev_priv->ttm_vm_ops = vma->vm_ops;
++              psb_ttm_vm_ops = *vma->vm_ops;
++              psb_ttm_vm_ops.fault = &psb_ttm_fault;
++      }
++
++      vma->vm_ops = &psb_ttm_vm_ops;
++
++      return 0;
++}
++
++ssize_t psb_ttm_write(struct file *filp, const char __user *buf,
++                    size_t count, loff_t *f_pos)
++{
++      struct drm_file *file_priv = (struct drm_file *)filp->private_data;
++      struct drm_psb_private *dev_priv = psb_priv(file_priv->minor->dev);
++      
++      return ttm_bo_io(&dev_priv->bdev, filp, buf, NULL, count, f_pos, 1);
++}
++
++ssize_t psb_ttm_read(struct file *filp, char __user *buf,
++                   size_t count, loff_t *f_pos)
++{
++      struct drm_file *file_priv = (struct drm_file *)filp->private_data;
++      struct drm_psb_private *dev_priv = psb_priv(file_priv->minor->dev);
++      
++      return ttm_bo_io(&dev_priv->bdev, filp, NULL, buf, count, f_pos, 1);
++}
++
++int psb_verify_access(struct ttm_buffer_object *bo,
++                    struct file *filp)
++{
++      struct drm_file *file_priv = (struct drm_file *)filp->private_data;
++
++      if (capable(CAP_SYS_ADMIN))
++              return 0;
++
++      if (unlikely(!file_priv->authenticated))
++              return -EPERM;
++
++      return ttm_pl_verify_access(bo, psb_fpriv(file_priv)->tfile);
++}
++
++static int psb_ttm_mem_global_init(struct drm_global_reference *ref)
++{
++      return ttm_mem_global_init(ref->object);
++}
++
++static void psb_ttm_mem_global_release(struct drm_global_reference *ref)
++{
++      ttm_mem_global_release(ref->object);
++}
++
++int psb_ttm_global_init(struct drm_psb_private *dev_priv)
++{
++      struct drm_global_reference *global_ref;
++      int ret;
++
++      global_ref = &dev_priv->mem_global_ref;
++      global_ref->global_type = DRM_GLOBAL_TTM_MEM;
++      global_ref->size = sizeof(struct ttm_mem_global);
++      global_ref->init = &psb_ttm_mem_global_init;
++      global_ref->release = &psb_ttm_mem_global_release;
++
++      ret = drm_global_item_ref(global_ref);
++      if (unlikely(ret != 0)) {
++              DRM_ERROR("Failed referencing a global TTM memory object.\n");
++              return ret;
++      }
++
++      return 0;
++}
++
++void psb_ttm_global_release(struct drm_psb_private *dev_priv)
++{
++      drm_global_item_unref(&dev_priv->mem_global_ref);
++}     
+diff --git a/drivers/gpu/drm/psb/psb_umevents.c b/drivers/gpu/drm/psb/psb_umevents.c
+new file mode 100644
+index 0000000..90b91c1
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_umevents.c
+@@ -0,0 +1,490 @@
++/*
++ * Copyright Â© 2009 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
++ * IN THE SOFTWARE.
++ *
++ * Authors:
++ *    James C. Gualario <james.c.gualario@intel.com>
++ *
++ */
++#include "psb_umevents.h"
++/**
++ * define sysfs operations supported by umevent objects.
++ *
++ */
++static struct sysfs_ops umevent_obj_sysfs_ops = {
++      .show = psb_umevent_attr_show,
++      .store = psb_umevent_attr_store,
++};
++/**
++ * define the data attributes we will expose through sysfs.
++ *
++ */
++static struct umevent_attribute data_0 =
++      __ATTR(data_0_val, 0666, psb_umevent_attr_show_imp,
++             psb_umevent_attr_store_imp);
++static struct umevent_attribute data_1 =
++      __ATTR(data_1_val, 0666, psb_umevent_attr_show_imp,
++             psb_umevent_attr_store_imp);
++static struct umevent_attribute data_2 =
++      __ATTR(data_2_val, 0666, psb_umevent_attr_show_imp,
++             psb_umevent_attr_store_imp);
++static struct umevent_attribute data_3 =
++      __ATTR(data_3_val, 0666, psb_umevent_attr_show_imp,
++             psb_umevent_attr_store_imp);
++static struct umevent_attribute data_4 =
++      __ATTR(data_4_val, 0666, psb_umevent_attr_show_imp,
++             psb_umevent_attr_store_imp);
++static struct umevent_attribute data_5 =
++      __ATTR(data_5_val, 0666, psb_umevent_attr_show_imp,
++             psb_umevent_attr_store_imp);
++static struct umevent_attribute data_6 =
++      __ATTR(data_6_val, 0666, psb_umevent_attr_show_imp,
++             psb_umevent_attr_store_imp);
++static struct umevent_attribute data_7 =
++      __ATTR(data_7_val, 0666, psb_umevent_attr_show_imp,
++             psb_umevent_attr_store_imp);
++/**
++ * define the structure used to seed our ktype.
++ *
++ */
++static struct attribute *umevent_obj_default_attrs[] = {
++      &data_0.attr,
++      &data_1.attr,
++      &data_2.attr,
++      &data_3.attr,
++      &data_4.attr,
++      &data_5.attr,
++      &data_6.attr,
++      &data_7.attr,
++      NULL,   /* need to NULL terminate the list of attributes */
++};
++/**
++ * specify the ktype for our kobjects.
++ *
++ */
++static struct kobj_type umevent_obj_ktype = {
++      .sysfs_ops = &umevent_obj_sysfs_ops,
++      .release = psb_umevent_obj_release,
++      .default_attrs = umevent_obj_default_attrs,
++};
++/**
++ * psb_umevent_attr_show - default kobject show function
++ *
++ * @kobj: kobject associated with the show operation
++ * @attr: attribute being requested
++ * @buf: pointer to the return buffer
++ *
++ */
++ssize_t psb_umevent_attr_show(struct kobject *kobj,
++                           struct attribute *attr,
++                           char *buf)
++{
++      struct umevent_attribute *attribute;
++      struct umevent_obj *any_umevent_obj;
++      attribute = to_umevent_attr(attr);
++      any_umevent_obj = to_umevent_obj(kobj);
++      if (!attribute->show)
++              return -EIO;
++
++      return attribute->show(any_umevent_obj, attribute, buf);
++}
++/**
++ * psb_umevent_attr_store - default kobject store function
++ *
++ * @kobj: kobject associated with the store operation
++ * @attr: attribute being requested
++ * @buf: input data to write to attribute
++ * @len: character count
++ *
++ */
++ssize_t psb_umevent_attr_store(struct kobject *kobj,
++                            struct attribute *attr,
++                            const char *buf, size_t len)
++{
++      struct umevent_attribute *attribute;
++      struct umevent_obj *any_umevent_obj;
++      attribute = to_umevent_attr(attr);
++      any_umevent_obj = to_umevent_obj(kobj);
++      if (!attribute->store)
++              return -EIO;
++
++      return attribute->store(any_umevent_obj, attribute, buf, len);
++}
++/**
++ * psb_umevent_obj_release - kobject release funtion
++ *
++ * @kobj: kobject to be released.
++ */
++void psb_umevent_obj_release(struct kobject *kobj)
++{
++      struct umevent_obj *any_umevent_obj;
++      any_umevent_obj = to_umevent_obj(kobj);
++      kfree(any_umevent_obj);
++}
++/**
++ *  psb_umevent_attr_show_imp - attribute show implementation
++ *
++ * @any_umevent_obj: kobject managed data to read from
++ * @attr: attribute being requested
++ * @buf: pointer to the return buffer
++ *
++ */
++ssize_t psb_umevent_attr_show_imp(struct umevent_obj
++                                   *any_umevent_obj,
++                                   struct umevent_attribute *attr,
++                                   char *buf)
++{
++      int var;
++
++      if (strcmp(attr->attr.name, "data_0_val") == 0)
++              var = any_umevent_obj->data_0_val;
++      else if (strcmp(attr->attr.name, "data_1_val") == 0)
++              var = any_umevent_obj->data_1_val;
++      else if (strcmp(attr->attr.name, "data_2_val") == 0)
++              var = any_umevent_obj->data_2_val;
++      else if (strcmp(attr->attr.name, "data_3_val") == 0)
++              var = any_umevent_obj->data_3_val;
++      else if (strcmp(attr->attr.name, "data_4_val") == 0)
++              var = any_umevent_obj->data_4_val;
++      else if (strcmp(attr->attr.name, "data_5_val") == 0)
++              var = any_umevent_obj->data_5_val;
++      else if (strcmp(attr->attr.name, "data_6_val") == 0)
++              var = any_umevent_obj->data_6_val;
++      else
++              var = any_umevent_obj->data_7_val;
++
++      return sprintf(buf, "%d\n", var);
++}
++/**
++ * psb_umevent_attr_store_imp - attribute store implementation
++ *
++ * @any_umevent_obj: kobject managed data to write to
++ * @attr: attribute being requested
++ * @buf: input data to write to attribute
++ * @count: character count
++ *
++ */
++ssize_t psb_umevent_attr_store_imp(struct umevent_obj
++                                    *any_umevent_obj,
++                                    struct umevent_attribute *attr,
++                                    const char *buf, size_t count)
++{
++      int var;
++
++      sscanf(buf, "%du", &var);
++      if (strcmp(attr->attr.name, "data_0_val") == 0)
++              any_umevent_obj->data_0_val = var;
++      else if (strcmp(attr->attr.name, "data_1_val") == 0)
++              any_umevent_obj->data_1_val = var;
++      else if (strcmp(attr->attr.name, "data_2_val") == 0)
++              any_umevent_obj->data_2_val = var;
++      else if (strcmp(attr->attr.name, "data_3_val") == 0)
++              any_umevent_obj->data_3_val = var;
++      else if (strcmp(attr->attr.name, "data_4_val") == 0)
++              any_umevent_obj->data_4_val = var;
++      else if (strcmp(attr->attr.name, "data_5_val") == 0)
++              any_umevent_obj->data_5_val = var;
++      else if (strcmp(attr->attr.name, "data_6_val") == 0)
++              any_umevent_obj->data_6_val = var;
++      else
++              any_umevent_obj->data_7_val = var;
++      return count;
++}
++/**
++ * psb_create_umevent_obj - create and track new event objects
++ *
++ * @name: name to give to new sysfs / kobject entry
++ * @list: event object list to track the kobject in
++ */
++struct umevent_obj *psb_create_umevent_obj(const char *name,
++                                              struct umevent_list
++                                                      *list)
++{
++      struct umevent_obj *new_umevent_obj;
++      int retval;
++      new_umevent_obj = kzalloc(sizeof(*new_umevent_obj),
++                                     GFP_KERNEL);
++      if (!new_umevent_obj)
++              return NULL;
++
++      new_umevent_obj->kobj.kset = list->umevent_disp_pool;
++      retval = kobject_init_and_add(&new_umevent_obj->kobj,
++                                    &umevent_obj_ktype, NULL,
++                                    "%s", name);
++      if (retval) {
++              kobject_put(&new_umevent_obj->kobj);
++              return NULL;
++      }
++      psb_umevent_add_to_list(list, new_umevent_obj);
++      return new_umevent_obj;
++}
++EXPORT_SYMBOL(psb_create_umevent_obj);
++/**
++ * psb_umevent_notify - info user mode of a new device
++ *
++ * @notify_disp_obj: event object to perform notification for
++ *
++ */
++void psb_umevent_notify(struct umevent_obj *notify_disp_obj)
++{
++      kobject_uevent(&notify_disp_obj->kobj, KOBJ_ADD);
++}
++EXPORT_SYMBOL(psb_umevent_notify);
++/**
++ * psb_umevent_notify_change - notify user mode of a change to a device
++ *
++ * @notify_disp_obj: event object to perform notification for
++ *
++ */
++void psb_umevent_notify_change(struct umevent_obj *notify_disp_obj)
++{
++      kobject_uevent(&notify_disp_obj->kobj, KOBJ_CHANGE);
++}
++EXPORT_SYMBOL(psb_umevent_notify_change);
++/**
++ * psb_umevent_notify_change - notify user mode of a change to a device
++ *
++ * @notify_disp_obj: event object to perform notification for
++ *
++ */
++void psb_umevent_notify_change_gfxsock(struct umevent_obj *notify_disp_obj)
++{
++      psb_kobject_uevent(&notify_disp_obj->kobj, KOBJ_CHANGE);
++}
++EXPORT_SYMBOL(psb_umevent_notify_change_gfxsock);
++/**
++ * psb_destroy_umvent_obj - decrement ref count on event so kernel can kill it
++ *
++ * @any_umevent_obj: event object to destroy
++ *
++ */
++void psb_destroy_umevent_obj(struct umevent_obj
++                                   *any_umevent_obj)
++{
++      kobject_put(&any_umevent_obj->kobj);
++}
++/**
++ *
++ * psb_umevent_init - init the event pool
++ *
++ * @parent_kobj: parent kobject to associate new kset with
++ * @new_umevent_list: event list to associate kset with
++ * @name: name to give to new sysfs entry
++ *
++ */
++int psb_umevent_init(struct kobject *parent_kobj,
++                   struct umevent_list *new_umevent_list,
++                   const char *name)
++{
++      psb_umevent_init_list(new_umevent_list);
++      new_umevent_list->umevent_disp_pool = kset_create_and_add(name, NULL,
++                                                   parent_kobj);
++      if (!new_umevent_list->umevent_disp_pool)
++              return -ENOMEM;
++
++      return 0;
++}
++EXPORT_SYMBOL(psb_umevent_init);
++/**
++ *
++ * psb_umevent_cleanup - cleanup all event objects
++ *
++ * @kill_list: list of events to destroy
++ *
++ */
++void psb_umevent_cleanup(struct umevent_list *kill_list)
++{
++      psb_umevent_destroy_list(kill_list);
++}
++EXPORT_SYMBOL(psb_umevent_cleanup);
++/**
++ * psb_umevent_add_to_list - add an event to the event list
++ *
++ * @list: list to add the event to
++ * @umevent_obj_to_add: event to add
++ *
++ */
++void psb_umevent_add_to_list(struct umevent_list *list,
++                            struct umevent_obj *umevent_obj_to_add)
++{
++      unsigned long flags;
++      spin_lock_irqsave(&list->list_lock, flags);
++      list_add(&umevent_obj_to_add->head, &list->head);
++      spin_unlock_irqrestore(&list->list_lock, flags);
++}
++/**
++ * psb_umevent_init_list - initialize event list
++ *
++ * @list: list to initialize
++ *
++ */
++void psb_umevent_init_list(struct umevent_list *list)
++{
++      spin_lock_init(&list->list_lock);
++      INIT_LIST_HEAD(&list->head);
++}
++/**
++ * psb_umevent_create_list - allocate an event list
++ *
++ */
++struct umevent_list *psb_umevent_create_list()
++{
++      struct umevent_list *new_umevent_list;
++      new_umevent_list = NULL;
++      new_umevent_list =  kmalloc(sizeof(struct umevent_list),
++                                       GFP_ATOMIC);
++      return new_umevent_list;
++}
++EXPORT_SYMBOL(psb_umevent_create_list);
++/**
++ * psb_umevent_destroy_list - destroy a list and clean up all mem
++ *
++ * @list: list to destroy and clean up after
++ *
++ */
++void psb_umevent_destroy_list(struct umevent_list *list)
++{
++      struct umevent_obj *umevent_obj_curr;
++      struct list_head *node;
++      struct list_head *node_kill;
++      int i;
++      i = 0;
++      node = NULL;
++      node_kill = NULL;
++      node = list->head.next;
++      while (node != (&list->head)) {
++              umevent_obj_curr = list_entry(node,
++                              struct umevent_obj,
++                                                 head);
++              node_kill = node;
++              node = umevent_obj_curr->head.next;
++              psb_destroy_umevent_obj(umevent_obj_curr);
++              umevent_obj_curr = NULL;
++              list_del(node_kill);
++              i++;
++      }
++      kset_unregister(list->umevent_disp_pool);
++      kfree(list);
++}
++/**
++ * psb_umevent_remove_from_list - remove an event from tracking list
++ *
++ * @list: list to remove the event from
++ * @disp_to_remove: name of event to remove.
++ *
++ */
++void psb_umevent_remove_from_list(struct umevent_list *list,
++                                 const char *disp_to_remove)
++{
++      struct umevent_obj *umevent_obj_curr = NULL;
++      struct list_head *node = NULL;
++      struct list_head *node_kill = NULL;
++      int i = 0;
++      int found_match = 0;
++      i = 0;
++      node = NULL;
++      node_kill = NULL;
++      node = list->head.next;
++      while (node != (&list->head)) {
++              umevent_obj_curr = list_entry(node,
++                              struct umevent_obj, head);
++              if (strcmp(umevent_obj_curr->kobj.name,
++                        disp_to_remove) == 0) {
++                      found_match = 1;
++                      break;
++              }
++              node = NULL;
++              node = umevent_obj_curr->head.next;
++              i++;
++      }
++      if (found_match == 1) {
++              node_kill = node;
++              node = umevent_obj_curr->head.next;
++              psb_destroy_umevent_obj(umevent_obj_curr);
++              umevent_obj_curr = NULL;
++              list_del(node_kill);
++      }
++}
++EXPORT_SYMBOL(psb_umevent_remove_from_list);
++/**
++ * psb_umevent_find_obj - find an event in a tracking list
++ *
++ * @name: name of the event to find
++ * @list: list to find the event in
++ *
++ */
++struct umevent_obj *psb_umevent_find_obj(const char *name,
++                                struct umevent_list *list)
++{
++      struct umevent_obj *umevent_obj_curr = NULL;
++      struct list_head *node = NULL;
++      struct list_head *node_find = NULL;
++      int i = 0;
++      int found_match = 0;
++      i = 0;
++      node = NULL;
++      node_find = NULL;
++      node = list->head.next;
++      while (node != (&list->head)) {
++              umevent_obj_curr = list_entry(node,
++                              struct umevent_obj, head);
++              if (strcmp(umevent_obj_curr->kobj.name,
++                        name) == 0) {
++                      found_match = 1;
++                      break;
++              }
++              node = NULL;
++              node = umevent_obj_curr->head.next;
++              i++;
++      }
++      if (found_match == 1)
++              return umevent_obj_curr;
++
++      return NULL;
++}
++EXPORT_SYMBOL(psb_umevent_find_obj);
++/**
++ * psb_umevent_debug_dump_list - debug list dump
++ *
++ * @list: list to dump
++ *
++ */
++void psb_umevent_debug_dump_list(struct umevent_list *list)
++{
++      struct umevent_obj *umevent_obj_curr;
++      unsigned long flags;
++      struct list_head *node;
++      int i;
++      spin_lock_irqsave(&list->list_lock, flags);
++      i = 0;
++      node = NULL;
++      node = list->head.next;
++      while (node != (&list->head)) {
++              umevent_obj_curr = list_entry(node,
++                                                 struct umevent_obj,
++                                                 head);
++              /*TBD: DUMP ANY REQUIRED VALUES WITH PRINTK*/
++              node = NULL;
++              node = umevent_obj_curr->head.next;
++              i++;
++      }
++      spin_unlock_irqrestore(&list->list_lock, flags);
++}
+diff --git a/drivers/gpu/drm/psb/psb_umevents.h b/drivers/gpu/drm/psb/psb_umevents.h
+new file mode 100644
+index 0000000..05dbc8b
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_umevents.h
+@@ -0,0 +1,150 @@
++/*
++ * Copyright Â© 2009 Intel Corporation
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the "Software"),
++ * to deal in the Software without restriction, including without limitation
++ * the rights to use, copy, modify, merge, publish, distribute, sublicense,
++ * and/or sell copies of the Software, and to permit persons to whom the
++ * Software is furnished to do so, subject to the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the next
++ * paragraph) shall be included in all copies or substantial portions of the
++ * Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
++ * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
++ * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
++ * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
++ * IN THE SOFTWARE.
++ *
++ * Authors:
++ *    James C. Gualario <james.c.gualario@intel.com>
++ *
++ */
++#ifndef _PSB_UMEVENT_H_
++#define _PSB_UMEVENT_H_
++/**
++ * required includes
++ *
++ */
++#include <linux/init.h>
++#include <linux/module.h>
++#include <linux/slab.h>
++#include <drm/drmP.h>
++#include <drm/drm_core.h>
++#include <drm/drm_pciids.h>
++#include <linux/spinlock.h>
++/**
++ * event structure managed by kobjects
++ *
++ */
++struct umevent_obj {
++      struct kobject kobj;
++      struct list_head head;
++      int data_0_val;
++      int data_1_val;
++      int data_2_val;
++      int data_3_val;
++      int data_4_val;
++      int data_5_val;
++      int data_6_val;
++      int data_7_val;
++};
++/**
++ * event tracking list element
++ *
++ */
++struct umevent_list{
++      struct list_head head;
++      struct kset *umevent_disp_pool;
++      spinlock_t list_lock;
++};
++/**
++ * to go back and forth between kobjects and their main container
++ *
++ */
++#define to_umevent_obj(x) \
++      container_of(x, struct umevent_obj, kobj)
++
++/**
++ * event attributes exposed via sysfs
++ *
++ */
++struct umevent_attribute {
++      struct attribute attr;
++      ssize_t (*show)(struct umevent_obj *any_umevent_obj,
++                      struct umevent_attribute *attr, char *buf);
++      ssize_t (*store)(struct umevent_obj *any_umevent_obj,
++                       struct umevent_attribute *attr,
++                       const char *buf, size_t count);
++};
++/**
++ * to go back and forth between the attribute passed to us by the OS
++ * and the umevent_attribute
++ *
++ */
++#define to_umevent_attr(x) \
++      container_of(x, struct umevent_attribute, \
++      attr)
++
++/**
++ * umevent function prototypes
++ *
++ */
++extern struct umevent_obj *psb_create_umevent_obj(const char *name,
++                                              struct umevent_list
++                                                      *list);
++extern ssize_t psb_umevent_attr_show(struct kobject *kobj,
++                                    struct attribute *attr, char *buf);
++extern ssize_t psb_umevent_attr_store(struct kobject *kobj,
++                                     struct attribute *attr,
++                                     const char *buf, size_t len);
++extern ssize_t psb_umevent_attr_show_imp(struct umevent_obj
++                                   *any_umevent_obj,
++                                   struct umevent_attribute *attr,
++                                   char *buf);
++extern ssize_t psb_umevent_attr_store_imp(struct umevent_obj
++                                    *any_umevent_obj,
++                                    struct umevent_attribute *attr,
++                                    const char *buf, size_t count);
++extern void psb_umevent_cleanup(struct umevent_list *kill_list);
++extern int psb_umevent_init(struct kobject *parent_kobj,
++                          struct umevent_list *new_umevent_list,
++                          const char *name);
++extern void psb_umevent_init_list(struct umevent_list *list);
++extern void psb_umevent_debug_dump_list(struct umevent_list *list);
++extern void psb_umevent_add_to_list(struct umevent_list *list,
++                                   struct umevent_obj
++                                   *umevent_obj_to_add);
++extern void psb_umevent_destroy_list(struct umevent_list *list);
++extern struct umevent_list *psb_umevent_create_list(void);
++extern void psb_umevent_notify(struct umevent_obj *notify_disp_obj);
++extern void psb_umevent_obj_release(struct kobject *kobj);
++extern void psb_umevent_remove_from_list(struct umevent_list *list,
++                                        const char *disp_to_remove);
++extern void psb_umevent_workqueue_dispatch(int work_type, const char *name,
++                                     struct umevent_list *list);
++extern void psb_umevent_notify_change(struct umevent_obj *notify_disp_obj);
++extern void psb_umevent_notify_change_gfxsock(struct umevent_obj
++                                            *notify_disp_obj);
++extern struct umevent_obj *psb_umevent_find_obj(const char *name,
++                                              struct umevent_list
++                                                      *list);
++/**
++ * socket function prototypes
++ *
++ */
++extern int psb_kobject_uevent(struct kobject *kobj,
++                            enum kobject_action action);
++extern int psb_kobject_uevent_env(struct kobject *kobj,
++                                enum kobject_action action,
++                                char *envp[]);
++int psb_add_uevent_var(struct kobj_uevent_env *env,
++                     const char *format, ...)
++      __attribute__((format (printf, 2, 3)));
++int psb_kobject_action_type(const char *buf,
++                          size_t count, enum kobject_action *type);
++#endif
+diff --git a/drivers/gpu/drm/psb/psb_xhw.c b/drivers/gpu/drm/psb/psb_xhw.c
+new file mode 100644
+index 0000000..58ce493
+--- /dev/null
++++ b/drivers/gpu/drm/psb/psb_xhw.c
+@@ -0,0 +1,652 @@
++/**************************************************************************
++ *Copyright (c) 2007-2008, Intel Corporation.
++ *All Rights Reserved.
++ *
++ *This program is free software; you can redistribute it and/or modify it
++ *under the terms and conditions of the GNU General Public License,
++ *version 2, as published by the Free Software Foundation.
++ *
++ *This program is distributed in the hope it will be useful, but WITHOUT
++ *ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ *FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ *more details.
++ *
++ *You should have received a copy of the GNU General Public License along with
++ *this program; if not, write to the Free Software Foundation, Inc.,
++ *51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ *Intel funded Tungsten Graphics (http://www.tungstengraphics.com) to
++ *develop this driver.
++ *
++ **************************************************************************/
++/*
++ *Make calls into closed source X server code.
++ */
++
++#include <drm/drmP.h>
++#include "psb_drv.h"
++#include "ttm/ttm_userobj_api.h"
++#include "psb_powermgmt.h"
++
++void
++psb_xhw_clean_buf(struct drm_psb_private *dev_priv,
++                struct psb_xhw_buf *buf)
++{
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      list_del_init(&buf->head);
++      if (dev_priv->xhw_cur_buf == buf)
++              dev_priv->xhw_cur_buf = NULL;
++      atomic_set(&buf->done, 1);
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++}
++
++static inline int psb_xhw_add(struct drm_psb_private *dev_priv,
++                            struct psb_xhw_buf *buf)
++{
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      atomic_set(&buf->done, 0);
++      if (unlikely(!dev_priv->xhw_submit_ok)) {
++              spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++              DRM_ERROR("No Xpsb 3D extension available.\n");
++              return -EINVAL;
++      }
++      if (!list_empty(&buf->head)) {
++              DRM_ERROR("Recursive list adding.\n");
++              goto out;
++      }
++      list_add_tail(&buf->head, &dev_priv->xhw_in);
++      wake_up_interruptible(&dev_priv->xhw_queue);
++out:
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++      return 0;
++}
++
++int psb_xhw_scene_info(struct drm_psb_private *dev_priv,
++                     struct psb_xhw_buf *buf,
++                     uint32_t w,
++                     uint32_t h,
++                     uint32_t *hw_cookie,
++                     uint32_t *bo_size,
++                     uint32_t *clear_p_start,
++                     uint32_t *clear_num_pages)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++      int ret;
++
++      buf->copy_back = 1;
++      xa->op = PSB_XHW_SCENE_INFO;
++      xa->irq_op = 0;
++      xa->issue_irq = 0;
++      xa->arg.si.w = w;
++      xa->arg.si.h = h;
++
++      ret = psb_xhw_add(dev_priv, buf);
++      if (ret)
++              return ret;
++
++      (void) wait_event_timeout(dev_priv->xhw_caller_queue,
++                                atomic_read(&buf->done), DRM_HZ);
++
++      if (!atomic_read(&buf->done)) {
++              psb_xhw_clean_buf(dev_priv, buf);
++              return -EBUSY;
++      }
++
++      if (!xa->ret) {
++              memcpy(hw_cookie, xa->cookie, sizeof(xa->cookie));
++              *bo_size = xa->arg.si.size;
++              *clear_p_start = xa->arg.si.clear_p_start;
++              *clear_num_pages = xa->arg.si.clear_num_pages;
++      }
++      return xa->ret;
++}
++
++int psb_xhw_fire_raster(struct drm_psb_private *dev_priv,
++                      struct psb_xhw_buf *buf, uint32_t fire_flags)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++
++      buf->copy_back = 0;
++      xa->op = PSB_XHW_FIRE_RASTER;
++      xa->issue_irq = 0;
++      xa->arg.sb.fire_flags = 0;
++
++      return psb_xhw_add(dev_priv, buf);
++}
++
++int psb_xhw_vistest(struct drm_psb_private *dev_priv,
++                  struct psb_xhw_buf *buf)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++
++      buf->copy_back = 1;
++      xa->op = PSB_XHW_VISTEST;
++      /*
++       *Could perhaps decrease latency somewhat by
++       *issuing an irq in this case.
++       */
++      xa->issue_irq = 0;
++      xa->irq_op = PSB_UIRQ_VISTEST;
++      return psb_xhw_add(dev_priv, buf);
++}
++
++int psb_xhw_scene_bind_fire(struct drm_psb_private *dev_priv,
++                          struct psb_xhw_buf *buf,
++                          uint32_t fire_flags,
++                          uint32_t hw_context,
++                          uint32_t *cookie,
++                          uint32_t *oom_cmds,
++                          uint32_t num_oom_cmds,
++                          uint32_t offset, uint32_t engine,
++                          uint32_t flags)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++
++      buf->copy_back = (fire_flags & PSB_FIRE_FLAG_XHW_OOM);
++      xa->op = PSB_XHW_SCENE_BIND_FIRE;
++      xa->issue_irq = (buf->copy_back) ? 1 : 0;
++      if (unlikely(buf->copy_back))
++              xa->irq_op = (engine == PSB_SCENE_ENGINE_TA) ?
++                  PSB_UIRQ_FIRE_TA_REPLY : PSB_UIRQ_FIRE_RASTER_REPLY;
++      else
++              xa->irq_op = 0;
++      xa->arg.sb.fire_flags = fire_flags;
++      xa->arg.sb.hw_context = hw_context;
++      xa->arg.sb.offset = offset;
++      xa->arg.sb.engine = engine;
++      xa->arg.sb.flags = flags;
++      xa->arg.sb.num_oom_cmds = num_oom_cmds;
++      memcpy(xa->cookie, cookie, sizeof(xa->cookie));
++      if (num_oom_cmds)
++              memcpy(xa->arg.sb.oom_cmds, oom_cmds,
++                     sizeof(uint32_t) * num_oom_cmds);
++      return psb_xhw_add(dev_priv, buf);
++}
++
++int psb_xhw_reset_dpm(struct drm_psb_private *dev_priv,
++                    struct psb_xhw_buf *buf)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++      int ret;
++
++      buf->copy_back = 1;
++      xa->op = PSB_XHW_RESET_DPM;
++      xa->issue_irq = 0;
++      xa->irq_op = 0;
++
++      ret = psb_xhw_add(dev_priv, buf);
++      if (ret)
++              return ret;
++
++      (void) wait_event_timeout(dev_priv->xhw_caller_queue,
++                                atomic_read(&buf->done), 3 * DRM_HZ);
++
++      if (!atomic_read(&buf->done)) {
++              psb_xhw_clean_buf(dev_priv, buf);
++              return -EBUSY;
++      }
++
++      return xa->ret;
++}
++
++int psb_xhw_check_lockup(struct drm_psb_private *dev_priv,
++                       struct psb_xhw_buf *buf, uint32_t *value)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++      int ret;
++
++      *value = 0;
++
++      buf->copy_back = 1;
++      xa->op = PSB_XHW_CHECK_LOCKUP;
++      xa->issue_irq = 0;
++      xa->irq_op = 0;
++
++      ret = psb_xhw_add(dev_priv, buf);
++      if (ret)
++              return ret;
++
++      (void) wait_event_timeout(dev_priv->xhw_caller_queue,
++                                atomic_read(&buf->done), DRM_HZ * 3);
++
++      if (!atomic_read(&buf->done)) {
++              psb_xhw_clean_buf(dev_priv, buf);
++              return -EBUSY;
++      }
++
++      if (!xa->ret)
++              *value = xa->arg.cl.value;
++
++      return xa->ret;
++}
++
++static int psb_xhw_terminate(struct drm_psb_private *dev_priv,
++                           struct psb_xhw_buf *buf)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++      unsigned long irq_flags;
++
++      buf->copy_back = 0;
++      xa->op = PSB_XHW_TERMINATE;
++      xa->issue_irq = 0;
++
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      dev_priv->xhw_submit_ok = 0;
++      atomic_set(&buf->done, 0);
++      if (!list_empty(&buf->head)) {
++              DRM_ERROR("Recursive list adding.\n");
++              goto out;
++      }
++      list_add_tail(&buf->head, &dev_priv->xhw_in);
++out:
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++      wake_up_interruptible(&dev_priv->xhw_queue);
++
++      (void) wait_event_timeout(dev_priv->xhw_caller_queue,
++                                atomic_read(&buf->done), DRM_HZ / 10);
++
++      if (!atomic_read(&buf->done)) {
++              DRM_ERROR("Xpsb terminate timeout.\n");
++              psb_xhw_clean_buf(dev_priv, buf);
++              return -EBUSY;
++      }
++
++      return 0;
++}
++
++int psb_xhw_ta_mem_info(struct drm_psb_private *dev_priv,
++                      struct psb_xhw_buf *buf,
++                      uint32_t pages, uint32_t * hw_cookie,
++                      uint32_t * size,
++                      uint32_t * ta_min_size)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++      int ret;
++
++      buf->copy_back = 1;
++      xa->op = PSB_XHW_TA_MEM_INFO;
++      xa->issue_irq = 0;
++      xa->irq_op = 0;
++      xa->arg.bi.pages = pages;
++
++      ret = psb_xhw_add(dev_priv, buf);
++      if (ret)
++              return ret;
++
++      (void) wait_event_timeout(dev_priv->xhw_caller_queue,
++                                atomic_read(&buf->done), DRM_HZ);
++
++      if (!atomic_read(&buf->done)) {
++              psb_xhw_clean_buf(dev_priv, buf);
++              return -EBUSY;
++      }
++
++      if (!xa->ret)
++              memcpy(hw_cookie, xa->cookie, sizeof(xa->cookie));
++
++      *size = xa->arg.bi.size;
++      *ta_min_size = xa->arg.bi.ta_min_size;
++      return xa->ret;
++}
++
++int psb_xhw_ta_mem_load(struct drm_psb_private *dev_priv,
++                      struct psb_xhw_buf *buf,
++                      uint32_t flags,
++                      uint32_t param_offset,
++                      uint32_t pt_offset, uint32_t *hw_cookie)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++      int ret;
++
++      buf->copy_back = 1;
++      xa->op = PSB_XHW_TA_MEM_LOAD;
++      xa->issue_irq = 0;
++      xa->irq_op = 0;
++      xa->arg.bl.flags = flags;
++      xa->arg.bl.param_offset = param_offset;
++      xa->arg.bl.pt_offset = pt_offset;
++      memcpy(xa->cookie, hw_cookie, sizeof(xa->cookie));
++
++      ret = psb_xhw_add(dev_priv, buf);
++      if (ret)
++              return ret;
++
++      (void) wait_event_timeout(dev_priv->xhw_caller_queue,
++                                atomic_read(&buf->done), 3 * DRM_HZ);
++
++      if (!atomic_read(&buf->done)) {
++              psb_xhw_clean_buf(dev_priv, buf);
++              return -EBUSY;
++      }
++
++      if (!xa->ret)
++              memcpy(hw_cookie, xa->cookie, sizeof(xa->cookie));
++
++      return xa->ret;
++}
++
++int psb_xhw_ta_oom(struct drm_psb_private *dev_priv,
++                 struct psb_xhw_buf *buf, uint32_t *cookie)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++
++      /*
++       *This calls the extensive closed source
++       *OOM handler, which resolves the condition and
++       *sends a reply telling the scheduler what to do
++       *with the task.
++       */
++
++      buf->copy_back = 1;
++      xa->op = PSB_XHW_OOM;
++      xa->issue_irq = 1;
++      xa->irq_op = PSB_UIRQ_OOM_REPLY;
++      memcpy(xa->cookie, cookie, sizeof(xa->cookie));
++
++      return psb_xhw_add(dev_priv, buf);
++}
++
++void psb_xhw_ta_oom_reply(struct drm_psb_private *dev_priv,
++                        struct psb_xhw_buf *buf,
++                        uint32_t *cookie,
++                        uint32_t *bca, uint32_t *rca, uint32_t *flags)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++
++      /*
++       *Get info about how to schedule an OOM task.
++       */
++
++      memcpy(cookie, xa->cookie, sizeof(xa->cookie));
++      *bca = xa->arg.oom.bca;
++      *rca = xa->arg.oom.rca;
++      *flags = xa->arg.oom.flags;
++}
++
++void psb_xhw_fire_reply(struct drm_psb_private *dev_priv,
++                      struct psb_xhw_buf *buf, uint32_t *cookie)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++
++      memcpy(cookie, xa->cookie, sizeof(xa->cookie));
++}
++
++int psb_xhw_resume(struct drm_psb_private *dev_priv,
++                 struct psb_xhw_buf *buf)
++{
++      struct drm_psb_xhw_arg *xa = &buf->arg;
++      int ret;
++      /*
++      *For D0i3, force resume to complete
++      */
++      buf->copy_back = 1;
++      xa->op = PSB_XHW_RESUME;
++      xa->issue_irq = 0;
++      xa->irq_op = 0;
++      ret = psb_xhw_add(dev_priv, buf);
++      if (ret)
++              return ret;
++      (void) wait_event_timeout(dev_priv->xhw_caller_queue,
++                                atomic_read(&buf->done), 3 * DRM_HZ);
++
++      if (!atomic_read(&buf->done)) {
++              psb_xhw_clean_buf(dev_priv, buf);
++              DRM_ERROR("Xpsb resume fail\n");
++              return -EBUSY;
++      }
++      return ret;
++}
++
++void psb_xhw_takedown(struct drm_psb_private *dev_priv)
++{
++}
++
++int psb_xhw_init(struct drm_device *dev)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      unsigned long irq_flags;
++
++      INIT_LIST_HEAD(&dev_priv->xhw_in);
++      spin_lock_init(&dev_priv->xhw_lock);
++      atomic_set(&dev_priv->xhw_client, 0);
++      init_waitqueue_head(&dev_priv->xhw_queue);
++      init_waitqueue_head(&dev_priv->xhw_caller_queue);
++      mutex_init(&dev_priv->xhw_mutex);
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      dev_priv->xhw_on = 0;
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++
++      return 0;
++}
++
++static int psb_xhw_init_init(struct drm_device *dev,
++                           struct drm_file *file_priv,
++                           struct drm_psb_xhw_init_arg *arg)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      struct ttm_object_file *tfile = psb_fpriv(file_priv)->tfile;
++      int ret;
++      bool is_iomem;
++
++      if (atomic_add_unless(&dev_priv->xhw_client, 1, 1)) {
++              unsigned long irq_flags;
++
++              dev_priv->xhw_bo =
++                  ttm_buffer_object_lookup(tfile, arg->buffer_handle);
++              if (!dev_priv->xhw_bo) {
++                      ret = -EINVAL;
++                      goto out_err;
++              }
++              ret = ttm_bo_kmap(dev_priv->xhw_bo, 0,
++                                dev_priv->xhw_bo->num_pages,
++                                &dev_priv->xhw_kmap);
++              if (ret) {
++                      DRM_ERROR("Failed mapping X server "
++                                "communications buffer.\n");
++                      goto out_err0;
++              }
++              dev_priv->xhw =
++                  ttm_kmap_obj_virtual(&dev_priv->xhw_kmap, &is_iomem);
++              if (is_iomem) {
++                      DRM_ERROR("X server communications buffer"
++                                "is in device memory.\n");
++                      ret = -EINVAL;
++                      goto out_err1;
++              }
++              dev_priv->xhw_file = file_priv;
++
++              spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++              dev_priv->xhw_on = 1;
++              dev_priv->xhw_submit_ok = 1;
++              spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++              return 0;
++      } else {
++              DRM_ERROR("Xhw is already initialized.\n");
++              return -EBUSY;
++      }
++out_err1:
++      dev_priv->xhw = NULL;
++      ttm_bo_kunmap(&dev_priv->xhw_kmap);
++out_err0:
++      ttm_bo_unref(&dev_priv->xhw_bo);
++out_err:
++      atomic_dec(&dev_priv->xhw_client);
++      return ret;
++}
++
++static void psb_xhw_queue_empty(struct drm_psb_private *dev_priv)
++{
++      struct psb_xhw_buf *cur_buf, *next;
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      dev_priv->xhw_submit_ok = 0;
++
++      list_for_each_entry_safe(cur_buf, next, &dev_priv->xhw_in, head) {
++              list_del_init(&cur_buf->head);
++              if (cur_buf->copy_back)
++                      cur_buf->arg.ret = -EINVAL;
++              atomic_set(&cur_buf->done, 1);
++      }
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++      wake_up(&dev_priv->xhw_caller_queue);
++}
++
++void psb_xhw_init_takedown(struct drm_psb_private *dev_priv,
++                         struct drm_file *file_priv, int closing)
++{
++
++      if (dev_priv->xhw_file == file_priv &&
++          atomic_add_unless(&dev_priv->xhw_client, -1, 0)) {
++
++              if (closing)
++                      psb_xhw_queue_empty(dev_priv);
++              else {
++                      struct psb_xhw_buf buf;
++                      INIT_LIST_HEAD(&buf.head);
++
++                      psb_xhw_terminate(dev_priv, &buf);
++                      psb_xhw_queue_empty(dev_priv);
++              }
++
++              dev_priv->xhw = NULL;
++              ttm_bo_kunmap(&dev_priv->xhw_kmap);
++              ttm_bo_unref(&dev_priv->xhw_bo);
++              dev_priv->xhw_file = NULL;
++      }
++}
++
++int psb_xhw_init_ioctl(struct drm_device *dev, void *data,
++                     struct drm_file *file_priv)
++{
++      struct drm_psb_xhw_init_arg *arg =
++          (struct drm_psb_xhw_init_arg *) data;
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      int ret = 0;
++      powermgmt_using_hw_begin(dev->pdev, PSB_GRAPHICS_ISLAND, true);
++      switch (arg->operation) {
++      case PSB_XHW_INIT:
++              ret = psb_xhw_init_init(dev, file_priv, arg);
++              break;
++      case PSB_XHW_TAKEDOWN:
++              psb_xhw_init_takedown(dev_priv, file_priv, 0);
++              break;
++      }
++      powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      return ret;
++}
++
++static int psb_xhw_in_empty(struct drm_psb_private *dev_priv)
++{
++      int empty;
++      unsigned long irq_flags;
++
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      empty = list_empty(&dev_priv->xhw_in);
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++      return empty;
++}
++
++int psb_xhw_handler(struct drm_psb_private *dev_priv)
++{
++      unsigned long irq_flags;
++      struct drm_psb_xhw_arg *xa;
++      struct psb_xhw_buf *buf;
++
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++
++      if (!dev_priv->xhw_on) {
++              spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++              return -EINVAL;
++      }
++
++      buf = dev_priv->xhw_cur_buf;
++      if (buf && buf->copy_back) {
++              xa = &buf->arg;
++              /*w/a for resume, save this memcpy for perfmance*/
++              if (xa->op != PSB_XHW_RESUME)
++                      memcpy(xa, dev_priv->xhw, sizeof(*xa));
++              dev_priv->comm[PSB_COMM_USER_IRQ] = xa->irq_op;
++              atomic_set(&buf->done, 1);
++              wake_up(&dev_priv->xhw_caller_queue);
++      } else
++              dev_priv->comm[PSB_COMM_USER_IRQ] = 0;
++
++      dev_priv->xhw_cur_buf = 0;
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++      return 0;
++}
++
++int psb_xhw_ioctl(struct drm_device *dev, void *data,
++                struct drm_file *file_priv)
++{
++      struct drm_psb_private *dev_priv =
++          (struct drm_psb_private *) dev->dev_private;
++      unsigned long irq_flags;
++      struct drm_psb_xhw_arg *xa;
++      int ret;
++      struct list_head *list;
++      struct psb_xhw_buf *buf;
++      static int firsttime = 1;
++
++      if (!dev_priv)
++              return -EINVAL;
++
++      /*tricky fix for sgx HW access from user space when XPSB is load*/
++      if(firsttime) {
++              firsttime = 0;
++              powermgmt_using_hw_end(PSB_GRAPHICS_ISLAND);
++      }
++
++      if (mutex_lock_interruptible(&dev_priv->xhw_mutex))
++              return -ERESTART;
++
++      if (psb_forced_user_interrupt(dev_priv)) {
++              mutex_unlock(&dev_priv->xhw_mutex);
++              return -EINVAL;
++      }
++
++      spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      while (list_empty(&dev_priv->xhw_in)) {
++              spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++              ret = wait_event_interruptible_timeout(dev_priv->xhw_queue,
++                                                     !psb_xhw_in_empty
++                                                     (dev_priv), DRM_HZ);
++              if (ret == -ERESTARTSYS || ret == 0) {
++                      mutex_unlock(&dev_priv->xhw_mutex);
++                      return -ERESTART;
++              }
++              spin_lock_irqsave(&dev_priv->xhw_lock, irq_flags);
++      }
++
++      list = dev_priv->xhw_in.next;
++      list_del_init(list);
++
++      buf = list_entry(list, struct psb_xhw_buf, head);
++      xa = &buf->arg;
++      memcpy(dev_priv->xhw, xa, sizeof(*xa));
++
++      if (unlikely(buf->copy_back))
++              dev_priv->xhw_cur_buf = buf;
++      else {
++              atomic_set(&buf->done, 1);
++              dev_priv->xhw_cur_buf = NULL;
++      }
++
++      if (xa->op == PSB_XHW_TERMINATE) {
++              dev_priv->xhw_on = 0;
++              wake_up(&dev_priv->xhw_caller_queue);
++      }
++      spin_unlock_irqrestore(&dev_priv->xhw_lock, irq_flags);
++
++      mutex_unlock(&dev_priv->xhw_mutex);
++
++      return 0;
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_agp_backend.c b/drivers/gpu/drm/psb/ttm/ttm_agp_backend.c
+new file mode 100644
+index 0000000..28fbe3b
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_agp_backend.c
+@@ -0,0 +1,149 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ *          Keith Packard.
++ */
++
++#include "ttm/ttm_bo_driver.h"
++#ifdef TTM_HAS_AGP
++#include "ttm/ttm_placement_common.h"
++#include <linux/agp_backend.h>
++#include <asm/agp.h>
++#include <asm/io.h>
++
++struct ttm_agp_backend {
++      struct ttm_backend backend;
++      struct agp_memory *mem;
++      struct agp_bridge_data *bridge;
++};
++
++static int ttm_agp_populate(struct ttm_backend *backend,
++                          unsigned long num_pages, struct page **pages,
++                          struct page *dummy_read_page)
++{
++      struct ttm_agp_backend *agp_be =
++          container_of(backend, struct ttm_agp_backend, backend);
++      struct page **cur_page, **last_page = pages + num_pages;
++      struct agp_memory *mem;
++
++      mem = agp_allocate_memory(agp_be->bridge, num_pages, AGP_USER_MEMORY);
++      if (unlikely(mem == NULL))
++              return -ENOMEM;
++
++      mem->page_count = 0;
++      for (cur_page = pages; cur_page < last_page; ++cur_page) {
++              struct page *page = *cur_page;
++              if (!page) {
++                      page = dummy_read_page;
++              }
++              mem->memory[mem->page_count++] =
++                  phys_to_gart(page_to_phys(page));
++      }
++      agp_be->mem = mem;
++      return 0;
++}
++
++static int ttm_agp_bind(struct ttm_backend *backend, struct ttm_mem_reg *bo_mem)
++{
++      struct ttm_agp_backend *agp_be =
++          container_of(backend, struct ttm_agp_backend, backend);
++      struct agp_memory *mem = agp_be->mem;
++      int cached = (bo_mem->flags & TTM_PL_FLAG_CACHED);
++      int ret;
++
++      mem->is_flushed = 1;
++      mem->type = (cached) ? AGP_USER_CACHED_MEMORY : AGP_USER_MEMORY;
++
++      ret = agp_bind_memory(mem, bo_mem->mm_node->start);
++      if (ret)
++              printk(KERN_ERR "AGP Bind memory failed.\n");
++
++      return ret;
++}
++
++static int ttm_agp_unbind(struct ttm_backend *backend)
++{
++      struct ttm_agp_backend *agp_be =
++          container_of(backend, struct ttm_agp_backend, backend);
++
++      if (agp_be->mem->is_bound)
++              return agp_unbind_memory(agp_be->mem);
++      else
++              return 0;
++}
++
++static void ttm_agp_clear(struct ttm_backend *backend)
++{
++      struct ttm_agp_backend *agp_be =
++          container_of(backend, struct ttm_agp_backend, backend);
++      struct agp_memory *mem = agp_be->mem;
++
++      if (mem) {
++              ttm_agp_unbind(backend);
++              agp_free_memory(mem);
++      }
++      agp_be->mem = NULL;
++}
++
++static void ttm_agp_destroy(struct ttm_backend *backend)
++{
++      struct ttm_agp_backend *agp_be =
++          container_of(backend, struct ttm_agp_backend, backend);
++
++      if (agp_be->mem)
++              ttm_agp_clear(backend);
++      kfree(agp_be);
++}
++
++static struct ttm_backend_func ttm_agp_func = {
++      .populate = ttm_agp_populate,
++      .clear = ttm_agp_clear,
++      .bind = ttm_agp_bind,
++      .unbind = ttm_agp_unbind,
++      .destroy = ttm_agp_destroy,
++};
++
++struct ttm_backend *ttm_agp_backend_init(struct ttm_bo_device *bdev,
++                                       struct agp_bridge_data *bridge)
++{
++      struct ttm_agp_backend *agp_be;
++
++      agp_be = kmalloc(sizeof(*agp_be), GFP_KERNEL);
++      if (!agp_be)
++              return NULL;
++
++      agp_be->mem = NULL;
++      agp_be->bridge = bridge;
++      agp_be->backend.func = &ttm_agp_func;
++      agp_be->backend.bdev = bdev;
++      return &agp_be->backend;
++}
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_bo.c b/drivers/gpu/drm/psb/ttm/ttm_bo.c
+new file mode 100644
+index 0000000..7cdbd45
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_bo.c
+@@ -0,0 +1,1716 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellström <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include "ttm/ttm_bo_driver.h"
++#include "ttm/ttm_placement_common.h"
++#include <linux/jiffies.h>
++#include <linux/slab.h>
++#include <linux/sched.h>
++#include <linux/mm.h>
++#include <linux/file.h>
++
++#define TTM_ASSERT_LOCKED(param)
++#define TTM_DEBUG(fmt, arg...)
++#define TTM_BO_HASH_ORDER 13
++
++static int ttm_bo_setup_vm(struct ttm_buffer_object *bo);
++static void ttm_bo_unmap_virtual(struct ttm_buffer_object *bo);
++static int ttm_bo_swapout(struct ttm_mem_shrink *shrink);
++
++static inline uint32_t ttm_bo_type_flags(unsigned type)
++{
++      return (1 << (type));
++}
++
++static void ttm_bo_release_list(struct kref *list_kref)
++{
++      struct ttm_buffer_object *bo =
++          container_of(list_kref, struct ttm_buffer_object, list_kref);
++      struct ttm_bo_device *bdev = bo->bdev;
++
++      BUG_ON(atomic_read(&bo->list_kref.refcount));
++      BUG_ON(atomic_read(&bo->kref.refcount));
++      BUG_ON(atomic_read(&bo->cpu_writers));
++      BUG_ON(bo->sync_obj != NULL);
++      BUG_ON(bo->mem.mm_node != NULL);
++      BUG_ON(!list_empty(&bo->lru));
++      BUG_ON(!list_empty(&bo->ddestroy));
++
++      if (bo->ttm)
++              ttm_tt_destroy(bo->ttm);
++      if (bo->destroy)
++              bo->destroy(bo);
++      else {
++              ttm_mem_global_free(bdev->mem_glob, bo->acc_size, false);
++              kfree(bo);
++      }
++}
++
++int ttm_bo_wait_unreserved(struct ttm_buffer_object *bo, bool interruptible)
++{
++
++      if (interruptible) {
++              int ret = 0;
++
++              ret = wait_event_interruptible(bo->event_queue,
++                                             atomic_read(&bo->reserved) == 0);
++              if (unlikely(ret != 0))
++                      return -ERESTART;
++      } else {
++              wait_event(bo->event_queue, atomic_read(&bo->reserved) == 0);
++      }
++      return 0;
++}
++
++static void ttm_bo_add_to_lru(struct ttm_buffer_object *bo)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_mem_type_manager *man;
++
++      BUG_ON(!atomic_read(&bo->reserved));
++
++      if (!(bo->mem.flags & TTM_PL_FLAG_NO_EVICT)) {
++
++              BUG_ON(!list_empty(&bo->lru));
++
++              man = &bdev->man[bo->mem.mem_type];
++              list_add_tail(&bo->lru, &man->lru);
++              kref_get(&bo->list_kref);
++
++              if (bo->ttm != NULL) {
++                      list_add_tail(&bo->swap, &bdev->swap_lru);
++                      kref_get(&bo->list_kref);
++              }
++      }
++}
++
++/*
++ * Call with bdev->lru_lock and bdev->global->swap_lock held..
++ */
++
++static int ttm_bo_del_from_lru(struct ttm_buffer_object *bo)
++{
++      int put_count = 0;
++
++      if (!list_empty(&bo->swap)) {
++              list_del_init(&bo->swap);
++              ++put_count;
++      }
++      if (!list_empty(&bo->lru)) {
++              list_del_init(&bo->lru);
++              ++put_count;
++      }
++
++      /*
++       * TODO: Add a driver hook to delete from
++       * driver-specific LRU's here.
++       */
++
++      return put_count;
++}
++
++int ttm_bo_reserve_locked(struct ttm_buffer_object *bo,
++                        bool interruptible,
++                        bool no_wait, bool use_sequence, uint32_t sequence)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      int ret;
++
++      while (unlikely(atomic_cmpxchg(&bo->reserved, 0, 1) != 0)) {
++              if (use_sequence && bo->seq_valid &&
++                      (sequence - bo->val_seq < (1 << 31))) {
++                      return -EAGAIN;
++              }
++
++              if (no_wait)
++                      return -EBUSY;
++
++              spin_unlock(&bdev->lru_lock);
++              ret = ttm_bo_wait_unreserved(bo, interruptible);
++              spin_lock(&bdev->lru_lock);
++
++              if (unlikely(ret))
++                      return ret;
++      }
++
++      if (use_sequence) {
++              bo->val_seq = sequence;
++              bo->seq_valid = true;
++      } else {
++              bo->seq_valid = false;
++      }
++
++      return 0;
++}
++
++static void ttm_bo_ref_bug(struct kref *list_kref)
++{
++      BUG();
++}
++
++int ttm_bo_reserve(struct ttm_buffer_object *bo,
++                 bool interruptible,
++                 bool no_wait, bool use_sequence, uint32_t sequence)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      int put_count = 0;
++      int ret;
++
++      spin_lock(&bdev->lru_lock);
++      ret = ttm_bo_reserve_locked(bo, interruptible, no_wait, use_sequence,
++                                  sequence);
++      if (likely(ret == 0))
++              put_count = ttm_bo_del_from_lru(bo);
++      spin_unlock(&bdev->lru_lock);
++
++      while (put_count--)
++              kref_put(&bo->list_kref, ttm_bo_ref_bug);
++
++      return ret;
++}
++
++void ttm_bo_unreserve(struct ttm_buffer_object *bo)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++
++      spin_lock(&bdev->lru_lock);
++      ttm_bo_add_to_lru(bo);
++      atomic_set(&bo->reserved, 0);
++      wake_up_all(&bo->event_queue);
++      spin_unlock(&bdev->lru_lock);
++}
++
++/*
++ * Call bo->mutex locked.
++ */
++
++static int ttm_bo_add_ttm(struct ttm_buffer_object *bo)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      int ret = 0;
++      uint32_t page_flags = 0;
++
++      TTM_ASSERT_LOCKED(&bo->mutex);
++      bo->ttm = NULL;
++
++      switch (bo->type) {
++      case ttm_bo_type_device:
++      case ttm_bo_type_kernel:
++              bo->ttm = ttm_tt_create(bdev, bo->num_pages << PAGE_SHIFT,
++                                      page_flags, bdev->dummy_read_page);
++              if (unlikely(bo->ttm == NULL))
++                      ret = -ENOMEM;
++              break;
++      case ttm_bo_type_user:
++              bo->ttm = ttm_tt_create(bdev, bo->num_pages << PAGE_SHIFT,
++                                      page_flags | TTM_PAGE_FLAG_USER,
++                                      bdev->dummy_read_page);
++              if (unlikely(bo->ttm == NULL))
++                      ret = -ENOMEM;
++              break;
++
++              ret = ttm_tt_set_user(bo->ttm, current,
++                                    bo->buffer_start, bo->num_pages);
++              if (unlikely(ret != 0))
++                      ttm_tt_destroy(bo->ttm);
++              break;
++      default:
++              printk(KERN_ERR "Illegal buffer object type\n");
++              ret = -EINVAL;
++              break;
++      }
++
++      return ret;
++}
++
++static int ttm_bo_handle_move_mem(struct ttm_buffer_object *bo,
++                                struct ttm_mem_reg *mem,
++                                bool evict, bool interruptible, bool no_wait)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      bool old_is_pci = ttm_mem_reg_is_pci(bdev, &bo->mem);
++      bool new_is_pci = ttm_mem_reg_is_pci(bdev, mem);
++      struct ttm_mem_type_manager *old_man = &bdev->man[bo->mem.mem_type];
++      struct ttm_mem_type_manager *new_man = &bdev->man[mem->mem_type];
++      int ret = 0;
++
++      if (old_is_pci || new_is_pci ||
++          ((mem->flags & bo->mem.flags & TTM_PL_MASK_CACHING) == 0))
++              ttm_bo_unmap_virtual(bo);
++
++      /*
++       * Create and bind a ttm if required.
++       */
++
++      if (!(new_man->flags & TTM_MEMTYPE_FLAG_FIXED) && (bo->ttm == NULL)) {
++              ret = ttm_bo_add_ttm(bo);
++              if (ret)
++                      goto out_err;
++
++              ret = ttm_tt_set_placement_caching(bo->ttm, mem->flags);
++              if (ret)
++                      return ret;
++
++              if (mem->mem_type != TTM_PL_SYSTEM) {
++                      ret = ttm_tt_bind(bo->ttm, mem);
++                      if (ret)
++                              goto out_err;
++              }
++
++              if (bo->mem.mem_type == TTM_PL_SYSTEM) {
++
++                      struct ttm_mem_reg *old_mem = &bo->mem;
++                      uint32_t save_flags = old_mem->flags;
++                      uint32_t save_proposed_flags = old_mem->proposed_flags;
++
++                      *old_mem = *mem;
++                      mem->mm_node = NULL;
++                      old_mem->proposed_flags = save_proposed_flags;
++                      ttm_flag_masked(&save_flags, mem->flags,
++                                      TTM_PL_MASK_MEMTYPE);
++                      goto moved;
++              }
++
++      }
++
++      if (!(old_man->flags & TTM_MEMTYPE_FLAG_FIXED) &&
++          !(new_man->flags & TTM_MEMTYPE_FLAG_FIXED))
++              ret = ttm_bo_move_ttm(bo, evict, no_wait, mem);
++      else if (bdev->driver->move)
++              ret = bdev->driver->move(bo, evict, interruptible,
++                                       no_wait, mem);
++      else
++              ret = ttm_bo_move_memcpy(bo, evict, no_wait, mem);
++
++      if (ret)
++              goto out_err;
++
++      moved:
++      if (bo->priv_flags & TTM_BO_PRIV_FLAG_EVICTED) {
++              ret = bdev->driver->invalidate_caches(bdev, bo->mem.flags);
++              if (ret)
++                      printk(KERN_ERR "Can not flush read caches\n");
++      }
++
++      ttm_flag_masked(&bo->priv_flags,
++                      (evict) ? TTM_BO_PRIV_FLAG_EVICTED : 0,
++                      TTM_BO_PRIV_FLAG_EVICTED);
++
++      if (bo->mem.mm_node)
++              bo->offset = (bo->mem.mm_node->start << PAGE_SHIFT) +
++                  bdev->man[bo->mem.mem_type].gpu_offset;
++
++      return 0;
++
++      out_err:
++      new_man = &bdev->man[bo->mem.mem_type];
++      if ((new_man->flags & TTM_MEMTYPE_FLAG_FIXED) && bo->ttm) {
++              ttm_tt_unbind(bo->ttm);
++              ttm_tt_destroy(bo->ttm);
++              bo->ttm = NULL;
++      }
++
++      return ret;
++}
++
++static int ttm_bo_expire_sync_obj(struct ttm_buffer_object *bo,
++                                bool allow_errors)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_bo_driver *driver = bdev->driver;
++
++      if (bo->sync_obj) {
++              if (bdev->nice_mode) {
++                      unsigned long _end = jiffies + 3 * HZ;
++                      int ret;
++                      do {
++                              ret = ttm_bo_wait(bo, false, false, false);
++                              if (ret && allow_errors)
++                                      return ret;
++
++                      } while (ret && !time_after_eq(jiffies, _end));
++
++                      if (bo->sync_obj) {
++                              bdev->nice_mode = false;
++                              printk(KERN_ERR "Detected probable GPU lockup. "
++                                     "Evicting buffer.\n");
++                      }
++              }
++              if (bo->sync_obj) {
++                      driver->sync_obj_unref(&bo->sync_obj);
++                      bo->priv_flags &= ~TTM_BO_PRIV_FLAG_MOVING;
++              }
++      }
++      return 0;
++}
++
++/**
++ * If bo idle, remove from delayed- and lru lists, and unref.
++ * If not idle, and already on delayed list, do nothing.
++ * If not idle, and not on delayed list, put on delayed list,
++ *   up the list_kref and schedule a delayed list check.
++ */
++
++static void ttm_bo_cleanup_refs(struct ttm_buffer_object *bo, bool remove_all)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_bo_driver *driver = bdev->driver;
++
++      mutex_lock(&bo->mutex);
++
++      if (bo->sync_obj && driver->sync_obj_signaled(bo->sync_obj,
++                                                    bo->sync_obj_arg)) {
++              driver->sync_obj_unref(&bo->sync_obj);
++              bo->priv_flags &= ~TTM_BO_PRIV_FLAG_MOVING;
++      }
++
++      if (bo->sync_obj && remove_all)
++              (void)ttm_bo_expire_sync_obj(bo, false);
++
++      if (!bo->sync_obj) {
++              int put_count;
++
++              if (bo->ttm)
++                      ttm_tt_unbind(bo->ttm);
++              spin_lock(&bdev->lru_lock);
++              if (!list_empty(&bo->ddestroy)) {
++                      list_del_init(&bo->ddestroy);
++                      kref_put(&bo->list_kref, ttm_bo_ref_bug);
++              }
++              if (bo->mem.mm_node) {
++                      drm_mm_put_block(bo->mem.mm_node);
++                      bo->mem.mm_node = NULL;
++              }
++              put_count = ttm_bo_del_from_lru(bo);
++              spin_unlock(&bdev->lru_lock);
++              mutex_unlock(&bo->mutex);
++              while (put_count--)
++                      kref_put(&bo->list_kref, ttm_bo_release_list);
++
++              return;
++      }
++
++      spin_lock(&bdev->lru_lock);
++      if (list_empty(&bo->ddestroy)) {
++              spin_unlock(&bdev->lru_lock);
++              driver->sync_obj_flush(bo->sync_obj, bo->sync_obj_arg);
++              spin_lock(&bdev->lru_lock);
++              if (list_empty(&bo->ddestroy)) {
++                      kref_get(&bo->list_kref);
++                      list_add_tail(&bo->ddestroy, &bdev->ddestroy);
++              }
++              spin_unlock(&bdev->lru_lock);
++              schedule_delayed_work(&bdev->wq,
++                                    ((HZ / 100) < 1) ? 1 : HZ / 100);
++      } else
++              spin_unlock(&bdev->lru_lock);
++
++      mutex_unlock(&bo->mutex);
++      return;
++}
++
++/**
++ * Traverse the delayed list, and call ttm_bo_cleanup_refs on all
++ * encountered buffers.
++ */
++
++static int ttm_bo_delayed_delete(struct ttm_bo_device *bdev, bool remove_all)
++{
++      struct ttm_buffer_object *entry, *nentry;
++      struct list_head *list, *next;
++      int ret;
++
++      spin_lock(&bdev->lru_lock);
++      list_for_each_safe(list, next, &bdev->ddestroy) {
++              entry = list_entry(list, struct ttm_buffer_object, ddestroy);
++              nentry = NULL;
++
++              /*
++               * Protect the next list entry from destruction while we
++               * unlock the lru_lock.
++               */
++
++              if (next != &bdev->ddestroy) {
++                      nentry = list_entry(next, struct ttm_buffer_object,
++                                          ddestroy);
++                      kref_get(&nentry->list_kref);
++              }
++              kref_get(&entry->list_kref);
++
++              spin_unlock(&bdev->lru_lock);
++              ttm_bo_cleanup_refs(entry, remove_all);
++              kref_put(&entry->list_kref, ttm_bo_release_list);
++              spin_lock(&bdev->lru_lock);
++
++              if (nentry) {
++                      bool next_onlist = !list_empty(next);
++                      kref_put(&nentry->list_kref, ttm_bo_release_list);
++
++                      /*
++                       * Someone might have raced us and removed the
++                       * next entry from the list. We don't bother restarting
++                       * list traversal.
++                       */
++
++                      if (!next_onlist)
++                              break;
++              }
++      }
++      ret = !list_empty(&bdev->ddestroy);
++      spin_unlock(&bdev->lru_lock);
++
++      return ret;
++}
++
++static void ttm_bo_delayed_workqueue(struct work_struct *work)
++{
++      struct ttm_bo_device *bdev =
++          container_of(work, struct ttm_bo_device, wq.work);
++
++      if (ttm_bo_delayed_delete(bdev, false)) {
++              schedule_delayed_work(&bdev->wq,
++                                    ((HZ / 100) < 1) ? 1 : HZ / 100);
++      }
++}
++
++static void ttm_bo_release(struct kref *kref)
++{
++      struct ttm_buffer_object *bo =
++          container_of(kref, struct ttm_buffer_object, kref);
++      struct ttm_bo_device *bdev = bo->bdev;
++
++      if (likely(bo->vm_node != NULL)) {
++              rb_erase(&bo->vm_rb, &bdev->addr_space_rb);
++              drm_mm_put_block(bo->vm_node);
++      }
++      write_unlock(&bdev->vm_lock);
++      ttm_bo_cleanup_refs(bo, false);
++      kref_put(&bo->list_kref, ttm_bo_release_list);
++      write_lock(&bdev->vm_lock);
++}
++
++void ttm_bo_unref(struct ttm_buffer_object **p_bo)
++{
++      struct ttm_buffer_object *bo = *p_bo;
++      struct ttm_bo_device *bdev = bo->bdev;
++
++      *p_bo = NULL;
++      write_lock(&bdev->vm_lock);
++      kref_put(&bo->kref, ttm_bo_release);
++      write_unlock(&bdev->vm_lock);
++}
++
++static int ttm_bo_evict(struct ttm_buffer_object *bo, unsigned mem_type,
++                      bool interruptible, bool no_wait)
++{
++      int ret = 0;
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_mem_reg evict_mem;
++
++      if (bo->mem.mem_type != mem_type)
++              goto out;
++
++      ret = ttm_bo_wait(bo, false, interruptible, no_wait);
++      if (ret && ret != -ERESTART) {
++              printk(KERN_ERR "Failed to expire sync object before "
++                     "buffer eviction.\n");
++              goto out;
++      }
++
++      BUG_ON(!atomic_read(&bo->reserved));
++
++      evict_mem = bo->mem;
++      evict_mem.mm_node = NULL;
++
++      evict_mem.proposed_flags = bdev->driver->evict_flags(bo);
++      BUG_ON(ttm_bo_type_flags(mem_type) & evict_mem.proposed_flags);
++
++      ret = ttm_bo_mem_space(bo, &evict_mem, interruptible, no_wait);
++      if (unlikely(ret != 0 && ret != -ERESTART)) {
++              evict_mem.proposed_flags = TTM_PL_FLAG_SYSTEM;
++              BUG_ON(ttm_bo_type_flags(mem_type) & evict_mem.proposed_flags);
++              ret = ttm_bo_mem_space(bo, &evict_mem, interruptible, no_wait);
++      }
++
++      if (ret) {
++              if (ret != -ERESTART)
++                      printk(KERN_ERR "Failed to find memory space for "
++                             "buffer 0x%p eviction.\n", bo);
++              goto out;
++      }
++
++      ret = ttm_bo_handle_move_mem(bo, &evict_mem, true, interruptible, no_wait);
++      if (ret) {
++              if (ret != -ERESTART)
++                      printk(KERN_ERR "Buffer eviction failed\n");
++              goto out;
++      }
++
++      spin_lock(&bdev->lru_lock);
++      if (evict_mem.mm_node) {
++              drm_mm_put_block(evict_mem.mm_node);
++              evict_mem.mm_node = NULL;
++      }
++      spin_unlock(&bdev->lru_lock);
++
++      ttm_flag_masked(&bo->priv_flags, TTM_BO_PRIV_FLAG_EVICTED,
++                      TTM_BO_PRIV_FLAG_EVICTED);
++
++      out:
++      return ret;
++}
++
++/**
++ * Repeatedly evict memory from the LRU for @mem_type until we create enough
++ * space, or we've evicted everything and there isn't enough space.
++ */
++static int ttm_bo_mem_force_space(struct ttm_bo_device *bdev,
++                                struct ttm_mem_reg *mem,
++                                uint32_t mem_type,
++                                bool interruptible, bool no_wait)
++{
++      struct drm_mm_node *node;
++      struct ttm_buffer_object *entry;
++      struct ttm_mem_type_manager *man = &bdev->man[mem_type];
++      struct list_head *lru;
++      unsigned long num_pages = mem->num_pages;
++      int put_count = 0;
++      int ret;
++
++      retry_pre_get:
++      ret = drm_mm_pre_get(&man->manager);
++      if (unlikely(ret != 0))
++              return ret;
++
++      spin_lock(&bdev->lru_lock);
++      do {
++              node = drm_mm_search_free(&man->manager, num_pages,
++                                        mem->page_alignment, 1);
++              if (node)
++                      break;
++
++              lru = &man->lru;
++              if (list_empty(lru))
++                      break;
++
++              entry = list_first_entry(lru, struct ttm_buffer_object, lru);
++              kref_get(&entry->list_kref);
++
++              ret =
++                  ttm_bo_reserve_locked(entry, interruptible, no_wait, false, 0);
++
++              if (likely(ret == 0))
++                      put_count = ttm_bo_del_from_lru(entry);
++
++              spin_unlock(&bdev->lru_lock);
++
++              if (unlikely(ret != 0))
++                      return ret;
++
++              while (put_count--)
++                      kref_put(&entry->list_kref, ttm_bo_ref_bug);
++
++              mutex_lock(&entry->mutex);
++              ret = ttm_bo_evict(entry, mem_type, interruptible, no_wait);
++              mutex_unlock(&entry->mutex);
++
++              ttm_bo_unreserve(entry);
++
++              kref_put(&entry->list_kref, ttm_bo_release_list);
++              if (ret)
++                      return ret;
++
++              spin_lock(&bdev->lru_lock);
++      } while (1);
++
++      if (!node) {
++              spin_unlock(&bdev->lru_lock);
++              return -ENOMEM;
++      }
++
++      node = drm_mm_get_block_atomic(node, num_pages, mem->page_alignment);
++      if (unlikely(!node)) {
++              spin_unlock(&bdev->lru_lock);
++              goto retry_pre_get;
++      }
++
++      spin_unlock(&bdev->lru_lock);
++      mem->mm_node = node;
++      mem->mem_type = mem_type;
++      return 0;
++}
++
++static bool ttm_bo_mt_compatible(struct ttm_mem_type_manager *man,
++                               bool disallow_fixed,
++                               uint32_t mem_type,
++                               uint32_t mask, uint32_t * res_mask)
++{
++      uint32_t cur_flags = ttm_bo_type_flags(mem_type);
++
++      if ((man->flags & TTM_MEMTYPE_FLAG_FIXED) && disallow_fixed)
++              return false;
++
++      if ((cur_flags & mask & TTM_PL_MASK_MEM) == 0)
++              return false;
++
++      if ((mask & man->available_caching) == 0)
++              return false;
++      if (mask & man->default_caching)
++              cur_flags |= man->default_caching;
++      else if (mask & TTM_PL_FLAG_CACHED)
++              cur_flags |= TTM_PL_FLAG_CACHED;
++      else if (mask & TTM_PL_FLAG_WC)
++              cur_flags |= TTM_PL_FLAG_WC;
++      else
++              cur_flags |= TTM_PL_FLAG_UNCACHED;
++
++      *res_mask = cur_flags;
++      return true;
++}
++
++/**
++ * Creates space for memory region @mem according to its type.
++ *
++ * This function first searches for free space in compatible memory types in
++ * the priority order defined by the driver.  If free space isn't found, then
++ * ttm_bo_mem_force_space is attempted in priority order to evict and find
++ * space.
++ */
++int ttm_bo_mem_space(struct ttm_buffer_object *bo,
++                   struct ttm_mem_reg *mem, bool interruptible, bool no_wait)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_mem_type_manager *man;
++
++      uint32_t num_prios = bdev->driver->num_mem_type_prio;
++      const uint32_t *prios = bdev->driver->mem_type_prio;
++      uint32_t i;
++      uint32_t mem_type = TTM_PL_SYSTEM;
++      uint32_t cur_flags = 0;
++      bool type_found = false;
++      bool type_ok = false;
++      bool has_eagain = false;
++      struct drm_mm_node *node = NULL;
++      int ret;
++
++      mem->mm_node = NULL;
++      for (i = 0; i < num_prios; ++i) {
++              mem_type = prios[i];
++              man = &bdev->man[mem_type];
++
++              type_ok = ttm_bo_mt_compatible(man,
++                                             bo->type == ttm_bo_type_user,
++                                             mem_type, mem->proposed_flags,
++                                             &cur_flags);
++
++              if (!type_ok)
++                      continue;
++
++              if (mem_type == TTM_PL_SYSTEM)
++                      break;
++
++              if (man->has_type && man->use_type) {
++                      type_found = true;
++                      do {
++                              ret = drm_mm_pre_get(&man->manager);
++                              if (unlikely(ret))
++                                      return ret;
++
++                              spin_lock(&bdev->lru_lock);
++                              node = drm_mm_search_free(&man->manager,
++                                                        mem->num_pages,
++                                                        mem->page_alignment,
++                                                        1);
++                              if (unlikely(!node)) {
++                                      spin_unlock(&bdev->lru_lock);
++                                      break;
++                              }
++                              node = drm_mm_get_block_atomic(node,
++                                                             mem->num_pages,
++                                                             mem->
++                                                             page_alignment);
++                              spin_unlock(&bdev->lru_lock);
++                      } while (!node);
++              }
++              if (node)
++                      break;
++      }
++
++      if ((type_ok && (mem_type == TTM_PL_SYSTEM)) || node) {
++              mem->mm_node = node;
++              mem->mem_type = mem_type;
++              mem->flags = cur_flags;
++              return 0;
++      }
++
++      if (!type_found)
++              return -EINVAL;
++
++      num_prios = bdev->driver->num_mem_busy_prio;
++      prios = bdev->driver->mem_busy_prio;
++
++      for (i = 0; i < num_prios; ++i) {
++              mem_type = prios[i];
++              man = &bdev->man[mem_type];
++
++              if (!man->has_type)
++                      continue;
++
++              if (!ttm_bo_mt_compatible(man,
++                                        bo->type == ttm_bo_type_user,
++                                        mem_type,
++                                        mem->proposed_flags, &cur_flags))
++                      continue;
++
++              ret = ttm_bo_mem_force_space(bdev, mem, mem_type,
++                                           interruptible, no_wait);
++
++              if (ret == 0 && mem->mm_node) {
++                      mem->flags = cur_flags;
++                      return 0;
++              }
++
++              if (ret == -ERESTART)
++                      has_eagain = true;
++      }
++
++      ret = (has_eagain) ? -ERESTART : -ENOMEM;
++      return ret;
++}
++
++/*
++ * Call bo->mutex locked.
++ * Returns 1 if the buffer is currently rendered to or from. 0 otherwise.
++ */
++
++static int ttm_bo_busy(struct ttm_buffer_object *bo)
++{
++      void *sync_obj = bo->sync_obj;
++      struct ttm_bo_driver *driver = bo->bdev->driver;
++
++      if (sync_obj) {
++              if (driver->sync_obj_signaled(sync_obj, bo->sync_obj_arg)) {
++                      driver->sync_obj_unref(&bo->sync_obj);
++                      bo->priv_flags &= ~TTM_BO_PRIV_FLAG_MOVING;
++                      return 0;
++              }
++              driver->sync_obj_flush(sync_obj, bo->sync_obj_arg);
++              if (driver->sync_obj_signaled(sync_obj, bo->sync_obj_arg)) {
++                      driver->sync_obj_unref(&bo->sync_obj);
++                      bo->priv_flags &= ~TTM_BO_PRIV_FLAG_MOVING;
++                      return 0;
++              }
++              return 1;
++      }
++      return 0;
++}
++
++int ttm_bo_wait_cpu(struct ttm_buffer_object *bo, bool no_wait)
++{
++      int ret = 0;
++
++      if ((atomic_read(&bo->cpu_writers) > 0) && no_wait)
++              return -EBUSY;
++
++      ret = wait_event_interruptible(bo->event_queue,
++                                     atomic_read(&bo->cpu_writers) == 0);
++
++      if (ret == -ERESTARTSYS)
++              ret = -ERESTART;
++
++      return ret;
++}
++
++/*
++ * bo->mutex locked.
++ * Note that new_mem_flags are NOT transferred to the bo->mem.proposed_flags.
++ */
++
++int ttm_bo_move_buffer(struct ttm_buffer_object *bo, uint32_t new_mem_flags,
++                     bool interruptible, bool no_wait)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      int ret = 0;
++      struct ttm_mem_reg mem;
++
++      BUG_ON(!atomic_read(&bo->reserved));
++
++      /*
++       * FIXME: It's possible to pipeline buffer moves.
++       * Have the driver move function wait for idle when necessary,
++       * instead of doing it here.
++       */
++
++      ttm_bo_busy(bo);
++      ret = ttm_bo_wait(bo, false, interruptible, no_wait);
++      if (ret)
++              return ret;
++
++      mem.num_pages = bo->num_pages;
++      mem.size = mem.num_pages << PAGE_SHIFT;
++      mem.proposed_flags = new_mem_flags;
++      mem.page_alignment = bo->mem.page_alignment;
++
++      /*
++       * Determine where to move the buffer.
++       */
++
++      ret = ttm_bo_mem_space(bo, &mem, interruptible, no_wait);
++      if (ret)
++              goto out_unlock;
++
++      ret = ttm_bo_handle_move_mem(bo, &mem, false, interruptible, no_wait);
++
++      out_unlock:
++      if (ret && mem.mm_node) {
++              spin_lock(&bdev->lru_lock);
++              drm_mm_put_block(mem.mm_node);
++              spin_unlock(&bdev->lru_lock);
++      }
++      return ret;
++}
++
++static int ttm_bo_mem_compat(struct ttm_mem_reg *mem)
++{
++      if ((mem->proposed_flags & mem->flags & TTM_PL_MASK_MEM) == 0)
++              return 0;
++      if ((mem->proposed_flags & mem->flags & TTM_PL_MASK_CACHING) == 0)
++              return 0;
++
++      return 1;
++}
++
++int ttm_buffer_object_validate(struct ttm_buffer_object *bo,
++                             bool interruptible, bool no_wait)
++{
++      int ret;
++
++      BUG_ON(!atomic_read(&bo->reserved));
++      bo->mem.proposed_flags = bo->proposed_flags;
++
++      TTM_DEBUG("Proposed flags 0x%08lx, Old flags 0x%08lx\n",
++                (unsigned long)bo->mem.proposed_flags,
++                (unsigned long)bo->mem.flags);
++
++      /*
++       * Check whether we need to move buffer.
++       */
++
++      if (!ttm_bo_mem_compat(&bo->mem)) {
++              ret = ttm_bo_move_buffer(bo, bo->mem.proposed_flags,
++                                       interruptible, no_wait);
++              if (ret) {
++                      if (ret != -ERESTART)
++                              printk(KERN_ERR "Failed moving buffer. "
++                                     "Proposed placement 0x%08x\n",
++                                     bo->mem.proposed_flags);
++                      if (ret == -ENOMEM)
++                              printk(KERN_ERR "Out of aperture space or "
++                                     "DRM memory quota.\n");
++                      return ret;
++              }
++      }
++
++      /*
++       * We might need to add a TTM.
++       */
++
++      if (bo->mem.mem_type == TTM_PL_SYSTEM && bo->ttm == NULL) {
++              ret = ttm_bo_add_ttm(bo);
++              if (ret)
++                      return ret;
++      }
++      /*
++       * Validation has succeeded, move the access and other
++       * non-mapping-related flag bits from the proposed flags to
++       * the active flags
++       */
++
++      ttm_flag_masked(&bo->mem.flags, bo->proposed_flags,
++                      ~TTM_PL_MASK_MEMTYPE);
++
++      return 0;
++}
++
++int
++ttm_bo_check_placement(struct ttm_buffer_object *bo,
++                     uint32_t set_flags, uint32_t clr_flags)
++{
++      uint32_t new_mask = set_flags | clr_flags;
++
++      if ((bo->type == ttm_bo_type_user) && (clr_flags & TTM_PL_FLAG_CACHED)) {
++              printk(KERN_ERR
++                     "User buffers require cache-coherent memory.\n");
++              return -EINVAL;
++      }
++
++      if (!capable(CAP_SYS_ADMIN)) {
++              if (new_mask & TTM_PL_FLAG_NO_EVICT) {
++                      printk(KERN_ERR "Need to be root to modify"
++                             " NO_EVICT status.\n");
++                      return -EINVAL;
++              }
++
++              if ((clr_flags & bo->mem.flags & TTM_PL_MASK_MEMTYPE) &&
++                  (bo->mem.flags & TTM_PL_FLAG_NO_EVICT)) {
++                      printk(KERN_ERR "Incompatible memory specification"
++                             " for NO_EVICT buffer.\n");
++                      return -EINVAL;
++              }
++      }
++      return 0;
++}
++
++int ttm_buffer_object_init(struct ttm_bo_device *bdev,
++                         struct ttm_buffer_object *bo,
++                         unsigned long size,
++                         enum ttm_bo_type type,
++                         uint32_t flags,
++                         uint32_t page_alignment,
++                         unsigned long buffer_start,
++                         bool interruptible,
++                         struct file *persistant_swap_storage,
++                         size_t acc_size,
++                         void (*destroy) (struct ttm_buffer_object *))
++{
++      int ret = 0;
++      unsigned long num_pages;
++
++      size += buffer_start & ~PAGE_MASK;
++      num_pages = (size + PAGE_SIZE - 1) >> PAGE_SHIFT;
++      if (num_pages == 0) {
++              printk(KERN_ERR "Illegal buffer object size.\n");
++              return -EINVAL;
++      }
++      bo->destroy = destroy;
++
++      mutex_init(&bo->mutex);
++      mutex_lock(&bo->mutex);
++      kref_init(&bo->kref);
++      kref_init(&bo->list_kref);
++      atomic_set(&bo->cpu_writers, 0);
++      atomic_set(&bo->reserved, 1);
++      init_waitqueue_head(&bo->event_queue);
++      INIT_LIST_HEAD(&bo->lru);
++      INIT_LIST_HEAD(&bo->ddestroy);
++      INIT_LIST_HEAD(&bo->swap);
++      bo->bdev = bdev;
++      bo->type = type;
++      bo->num_pages = num_pages;
++      bo->mem.mem_type = TTM_PL_SYSTEM;
++      bo->mem.num_pages = bo->num_pages;
++      bo->mem.mm_node = NULL;
++      bo->mem.page_alignment = page_alignment;
++      bo->buffer_start = buffer_start & PAGE_MASK;
++      bo->priv_flags = 0;
++      bo->mem.flags = (TTM_PL_FLAG_SYSTEM | TTM_PL_FLAG_CACHED);
++      bo->seq_valid = false;
++      bo->persistant_swap_storage = persistant_swap_storage;
++      bo->acc_size = acc_size;
++
++      ret = ttm_bo_check_placement(bo, flags, 0ULL);
++      if (unlikely(ret != 0))
++              goto out_err;
++
++      /*
++       * If no caching attributes are set, accept any form of caching.
++       */
++
++      if ((flags & TTM_PL_MASK_CACHING) == 0)
++              flags |= TTM_PL_MASK_CACHING;
++
++      bo->proposed_flags = flags;
++      bo->mem.proposed_flags = flags;
++
++      /*
++       * For ttm_bo_type_device buffers, allocate
++       * address space from the device.
++       */
++
++      if (bo->type == ttm_bo_type_device) {
++              ret = ttm_bo_setup_vm(bo);
++              if (ret)
++                      goto out_err;
++      }
++
++      ret = ttm_buffer_object_validate(bo, interruptible, false);
++      if (ret)
++              goto out_err;
++
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unreserve(bo);
++      return 0;
++
++      out_err:
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unreserve(bo);
++      ttm_bo_unref(&bo);
++
++      return ret;
++}
++
++static inline size_t ttm_bo_size(struct ttm_bo_device *bdev,
++                               unsigned long num_pages)
++{
++      size_t page_array_size = (num_pages * sizeof(void *) + PAGE_SIZE - 1) &
++          PAGE_MASK;
++
++      return bdev->ttm_bo_size + 2 * page_array_size;
++}
++
++int ttm_buffer_object_create(struct ttm_bo_device *bdev,
++                           unsigned long size,
++                           enum ttm_bo_type type,
++                           uint32_t flags,
++                           uint32_t page_alignment,
++                           unsigned long buffer_start,
++                           bool interruptible,
++                           struct file *persistant_swap_storage,
++                           struct ttm_buffer_object **p_bo)
++{
++      struct ttm_buffer_object *bo;
++      int ret;
++      struct ttm_mem_global *mem_glob = bdev->mem_glob;
++
++      size_t acc_size =
++          ttm_bo_size(bdev, (size + PAGE_SIZE - 1) >> PAGE_SHIFT);
++      ret = ttm_mem_global_alloc(mem_glob, acc_size, false, false, false);
++      if (unlikely(ret != 0))
++              return ret;
++
++      bo = kzalloc(sizeof(*bo), GFP_KERNEL);
++
++      if (unlikely(bo == NULL)) {
++              ttm_mem_global_free(mem_glob, acc_size, false);
++              return -ENOMEM;
++      }
++
++      ret = ttm_buffer_object_init(bdev, bo, size, type, flags,
++                                   page_alignment, buffer_start,
++                                   interruptible,
++                                   persistant_swap_storage, acc_size, NULL);
++      if (likely(ret == 0))
++              *p_bo = bo;
++
++      return ret;
++}
++
++static int ttm_bo_leave_list(struct ttm_buffer_object *bo,
++                           uint32_t mem_type, bool allow_errors)
++{
++      int ret;
++
++      mutex_lock(&bo->mutex);
++
++      ret = ttm_bo_expire_sync_obj(bo, allow_errors);
++      if (ret)
++              goto out;
++
++      if (bo->mem.mem_type == mem_type)
++              ret = ttm_bo_evict(bo, mem_type, false, false);
++
++      if (ret) {
++              if (allow_errors) {
++                      goto out;
++              } else {
++                      ret = 0;
++                      printk(KERN_ERR "Cleanup eviction failed\n");
++              }
++      }
++
++      out:
++      mutex_unlock(&bo->mutex);
++      return ret;
++}
++
++static int ttm_bo_force_list_clean(struct ttm_bo_device *bdev,
++                                 struct list_head *head,
++                                 unsigned mem_type, bool allow_errors)
++{
++      struct ttm_buffer_object *entry;
++      int ret;
++      int put_count;
++
++      /*
++       * Can't use standard list traversal since we're unlocking.
++       */
++
++      spin_lock(&bdev->lru_lock);
++
++      while (!list_empty(head)) {
++              entry = list_first_entry(head, struct ttm_buffer_object, lru);
++              kref_get(&entry->list_kref);
++              ret = ttm_bo_reserve_locked(entry, false, false, false, 0);
++              put_count = ttm_bo_del_from_lru(entry);
++              spin_unlock(&bdev->lru_lock);
++              while (put_count--)
++                      kref_put(&entry->list_kref, ttm_bo_ref_bug);
++              BUG_ON(ret);
++              ret = ttm_bo_leave_list(entry, mem_type, allow_errors);
++              ttm_bo_unreserve(entry);
++              kref_put(&entry->list_kref, ttm_bo_release_list);
++              spin_lock(&bdev->lru_lock);
++      }
++
++      spin_unlock(&bdev->lru_lock);
++
++      return 0;
++}
++
++int ttm_bo_clean_mm(struct ttm_bo_device *bdev, unsigned mem_type)
++{
++      struct ttm_mem_type_manager *man = &bdev->man[mem_type];
++      int ret = -EINVAL;
++
++      if (mem_type >= TTM_NUM_MEM_TYPES) {
++              printk(KERN_ERR "Illegal memory type %d\n", mem_type);
++              return ret;
++      }
++
++      if (!man->has_type) {
++              printk(KERN_ERR "Trying to take down uninitialized "
++                     "memory manager type %u\n", mem_type);
++              return ret;
++      }
++
++      man->use_type = false;
++      man->has_type = false;
++
++      ret = 0;
++      if (mem_type > 0) {
++              ttm_bo_force_list_clean(bdev, &man->lru, mem_type, false);
++
++              spin_lock(&bdev->lru_lock);
++              if (drm_mm_clean(&man->manager)) {
++                      drm_mm_takedown(&man->manager);
++              } else {
++                      ret = -EBUSY;
++              }
++              spin_unlock(&bdev->lru_lock);
++      }
++
++      return ret;
++}
++
++int ttm_bo_evict_mm(struct ttm_bo_device *bdev, unsigned mem_type)
++{
++      struct ttm_mem_type_manager *man = &bdev->man[mem_type];
++
++      if (mem_type == 0 || mem_type >= TTM_NUM_MEM_TYPES) {
++              printk(KERN_ERR "Illegal memory manager memory type %u.\n",
++                     mem_type);
++              return -EINVAL;
++      }
++
++      if (!man->has_type) {
++              printk(KERN_ERR "Memory type %u has not been initialized.\n",
++                     mem_type);
++              return 0;
++      }
++
++      return ttm_bo_force_list_clean(bdev, &man->lru, mem_type, true);
++}
++
++int ttm_bo_init_mm(struct ttm_bo_device *bdev, unsigned type,
++                 unsigned long p_offset, unsigned long p_size)
++{
++      int ret = -EINVAL;
++      struct ttm_mem_type_manager *man;
++
++      if (type >= TTM_NUM_MEM_TYPES) {
++              printk(KERN_ERR "Illegal memory type %d\n", type);
++              return ret;
++      }
++
++      man = &bdev->man[type];
++      if (man->has_type) {
++              printk(KERN_ERR
++                     "Memory manager already initialized for type %d\n",
++                     type);
++              return ret;
++      }
++
++      ret = bdev->driver->init_mem_type(bdev, type, man);
++      if (ret)
++              return ret;
++
++      ret = 0;
++      if (type != TTM_PL_SYSTEM) {
++              if (!p_size) {
++                      printk(KERN_ERR "Zero size memory manager type %d\n",
++                             type);
++                      return ret;
++              }
++              ret = drm_mm_init(&man->manager, p_offset, p_size);
++              if (ret)
++                      return ret;
++      }
++      man->has_type = true;
++      man->use_type = true;
++      man->size = p_size;
++
++      INIT_LIST_HEAD(&man->lru);
++
++      return 0;
++}
++
++int ttm_bo_device_release(struct ttm_bo_device *bdev)
++{
++      int ret = 0;
++      unsigned i = TTM_NUM_MEM_TYPES;
++      struct ttm_mem_type_manager *man;
++
++      while (i--) {
++              man = &bdev->man[i];
++              if (man->has_type) {
++                      man->use_type = false;
++                      if ((i != TTM_PL_SYSTEM) && ttm_bo_clean_mm(bdev, i)) {
++                              ret = -EBUSY;
++                              printk(KERN_ERR "DRM memory manager type %d "
++                                     "is not clean.\n", i);
++                      }
++                      man->has_type = false;
++              }
++      }
++
++      if (!cancel_delayed_work(&bdev->wq))
++              flush_scheduled_work();
++
++      while (ttm_bo_delayed_delete(bdev, true)) ;
++
++      spin_lock(&bdev->lru_lock);
++      if (list_empty(&bdev->ddestroy))
++              TTM_DEBUG("Delayed destroy list was clean\n");
++
++      if (list_empty(&bdev->man[0].lru))
++              TTM_DEBUG("Swap list was clean\n");
++      spin_unlock(&bdev->lru_lock);
++
++      ttm_mem_unregister_shrink(bdev->mem_glob, &bdev->shrink);
++      BUG_ON(!drm_mm_clean(&bdev->addr_space_mm));
++      write_lock(&bdev->vm_lock);
++      drm_mm_takedown(&bdev->addr_space_mm);
++      write_unlock(&bdev->vm_lock);
++
++      __free_page(bdev->dummy_read_page);
++      return ret;
++}
++
++/*
++ * This function is intended to be called on drm driver load.
++ * If you decide to call it from firstopen, you must protect the call
++ * from a potentially racing ttm_bo_driver_finish in lastclose.
++ * (This may happen on X server restart).
++ */
++
++int ttm_bo_device_init(struct ttm_bo_device *bdev,
++                     struct ttm_mem_global *mem_glob,
++                     struct ttm_bo_driver *driver, uint64_t file_page_offset)
++{
++      int ret = -EINVAL;
++
++      bdev->dummy_read_page = NULL;
++      rwlock_init(&bdev->vm_lock);
++      spin_lock_init(&bdev->lru_lock);
++
++      bdev->driver = driver;
++      bdev->mem_glob = mem_glob;
++
++      memset(bdev->man, 0, sizeof(bdev->man));
++
++      bdev->dummy_read_page = alloc_page(__GFP_ZERO | GFP_DMA32);
++      if (unlikely(bdev->dummy_read_page == NULL)) {
++              ret = -ENOMEM;
++              goto out_err0;
++      }
++
++      /*
++       * Initialize the system memory buffer type.
++       * Other types need to be driver / IOCTL initialized.
++       */
++      ret = ttm_bo_init_mm(bdev, TTM_PL_SYSTEM, 0, 0);
++      if (unlikely(ret != 0))
++              goto out_err1;
++
++      bdev->addr_space_rb = RB_ROOT;
++      ret = drm_mm_init(&bdev->addr_space_mm, file_page_offset, 0x10000000);
++      if (unlikely(ret != 0))
++              goto out_err2;
++
++      INIT_DELAYED_WORK(&bdev->wq, ttm_bo_delayed_workqueue);
++      bdev->nice_mode = true;
++      INIT_LIST_HEAD(&bdev->ddestroy);
++      INIT_LIST_HEAD(&bdev->swap_lru);
++      bdev->dev_mapping = NULL;
++      ttm_mem_init_shrink(&bdev->shrink, ttm_bo_swapout);
++      ret = ttm_mem_register_shrink(mem_glob, &bdev->shrink);
++      if (unlikely(ret != 0)) {
++              printk(KERN_ERR "Could not register buffer object swapout.\n");
++              goto out_err2;
++      }
++      return 0;
++      out_err2:
++      ttm_bo_clean_mm(bdev, 0);
++      out_err1:
++      __free_page(bdev->dummy_read_page);
++      out_err0:
++      return ret;
++}
++
++/*
++ * buffer object vm functions.
++ */
++
++bool ttm_mem_reg_is_pci(struct ttm_bo_device *bdev, struct ttm_mem_reg *mem)
++{
++      struct ttm_mem_type_manager *man = &bdev->man[mem->mem_type];
++
++      if (!(man->flags & TTM_MEMTYPE_FLAG_FIXED)) {
++              if (mem->mem_type == TTM_PL_SYSTEM)
++                      return false;
++
++              if (man->flags & TTM_MEMTYPE_FLAG_CMA)
++                      return false;
++
++              if (mem->flags & TTM_PL_FLAG_CACHED)
++                      return false;
++      }
++      return true;
++}
++
++int ttm_bo_pci_offset(struct ttm_bo_device *bdev,
++                    struct ttm_mem_reg *mem,
++                    unsigned long *bus_base,
++                    unsigned long *bus_offset, unsigned long *bus_size)
++{
++      struct ttm_mem_type_manager *man = &bdev->man[mem->mem_type];
++
++      *bus_size = 0;
++      if (!(man->flags & TTM_MEMTYPE_FLAG_MAPPABLE))
++              return -EINVAL;
++
++      if (ttm_mem_reg_is_pci(bdev, mem)) {
++              *bus_offset = mem->mm_node->start << PAGE_SHIFT;
++              *bus_size = mem->num_pages << PAGE_SHIFT;
++              *bus_base = man->io_offset;
++      }
++
++      return 0;
++}
++
++/**
++ * \c Kill all user-space virtual mappings of this buffer object.
++ *
++ * \param bo The buffer object.
++ *
++ * Call bo->mutex locked.
++ */
++
++void ttm_bo_unmap_virtual(struct ttm_buffer_object *bo)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      loff_t offset = (loff_t) bo->addr_space_offset;
++      loff_t holelen = ((loff_t) bo->mem.num_pages) << PAGE_SHIFT;
++
++      if (!bdev->dev_mapping)
++              return;
++
++      unmap_mapping_range(bdev->dev_mapping, offset, holelen, 1);
++}
++
++static void ttm_bo_vm_insert_rb(struct ttm_buffer_object *bo)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct rb_node **cur = &bdev->addr_space_rb.rb_node;
++      struct rb_node *parent = NULL;
++      struct ttm_buffer_object *cur_bo;
++      unsigned long offset = bo->vm_node->start;
++      unsigned long cur_offset;
++
++      while (*cur) {
++              parent = *cur;
++              cur_bo = rb_entry(parent, struct ttm_buffer_object, vm_rb);
++              cur_offset = cur_bo->vm_node->start;
++              if (offset < cur_offset)
++                      cur = &parent->rb_left;
++              else if (offset > cur_offset)
++                      cur = &parent->rb_right;
++              else
++                      BUG();
++      }
++
++      rb_link_node(&bo->vm_rb, parent, cur);
++      rb_insert_color(&bo->vm_rb, &bdev->addr_space_rb);
++}
++
++/**
++ * ttm_bo_setup_vm:
++ *
++ * @bo: the buffer to allocate address space for
++ *
++ * Allocate address space in the drm device so that applications
++ * can mmap the buffer and access the contents. This only
++ * applies to ttm_bo_type_device objects as others are not
++ * placed in the drm device address space.
++ */
++
++static int ttm_bo_setup_vm(struct ttm_buffer_object *bo)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      int ret;
++
++      retry_pre_get:
++      ret = drm_mm_pre_get(&bdev->addr_space_mm);
++      if (unlikely(ret != 0))
++              return ret;
++
++      write_lock(&bdev->vm_lock);
++      bo->vm_node = drm_mm_search_free(&bdev->addr_space_mm,
++                                       bo->mem.num_pages, 0, 0);
++
++      if (unlikely(bo->vm_node == NULL)) {
++              ret = -ENOMEM;
++              goto out_unlock;
++      }
++
++      bo->vm_node = drm_mm_get_block_atomic(bo->vm_node,
++                                            bo->mem.num_pages, 0);
++
++      if (unlikely(bo->vm_node == NULL)) {
++              write_unlock(&bdev->vm_lock);
++              goto retry_pre_get;
++      }
++
++      ttm_bo_vm_insert_rb(bo);
++      write_unlock(&bdev->vm_lock);
++      bo->addr_space_offset = ((uint64_t) bo->vm_node->start) << PAGE_SHIFT;
++
++      return 0;
++      out_unlock:
++      write_unlock(&bdev->vm_lock);
++      return ret;
++}
++
++int ttm_bo_wait(struct ttm_buffer_object *bo,
++              bool lazy, bool interruptible, bool no_wait)
++{
++      struct ttm_bo_driver *driver = bo->bdev->driver;
++      void *sync_obj;
++      void *sync_obj_arg;
++      int ret = 0;
++
++      while (bo->sync_obj) {
++              if (driver->sync_obj_signaled(bo->sync_obj, bo->sync_obj_arg)) {
++                      driver->sync_obj_unref(&bo->sync_obj);
++                      bo->priv_flags &= ~TTM_BO_PRIV_FLAG_MOVING;
++                      goto out;
++              }
++              if (no_wait) {
++                      ret = -EBUSY;
++                      goto out;
++              }
++              sync_obj = driver->sync_obj_ref(bo->sync_obj);
++              sync_obj_arg = bo->sync_obj_arg;
++              mutex_unlock(&bo->mutex);
++              ret = driver->sync_obj_wait(sync_obj, sync_obj_arg,
++                                          lazy, interruptible);
++
++              mutex_lock(&bo->mutex);
++              if (unlikely(ret != 0)) {
++                      driver->sync_obj_unref(&sync_obj);
++                      return ret;
++              }
++
++              if (bo->sync_obj == sync_obj) {
++                      driver->sync_obj_unref(&bo->sync_obj);
++                      bo->priv_flags &= ~TTM_BO_PRIV_FLAG_MOVING;
++              }
++              driver->sync_obj_unref(&sync_obj);
++      }
++      out:
++      return 0;
++}
++
++void ttm_bo_unblock_reservation(struct ttm_buffer_object *bo)
++{
++      atomic_set(&bo->reserved, 0);
++      wake_up_all(&bo->event_queue);
++}
++
++int ttm_bo_block_reservation(struct ttm_buffer_object *bo, bool interruptible,
++                           bool no_wait)
++{
++      int ret;
++
++      while (unlikely(atomic_cmpxchg(&bo->reserved, 0, 1) != 0)) {
++              if (no_wait)
++                      return -EBUSY;
++              else if (interruptible) {
++                      ret = wait_event_interruptible
++                          (bo->event_queue, atomic_read(&bo->reserved) == 0);
++                      if (unlikely(ret != 0))
++                              return -ERESTART;
++              } else {
++                      wait_event(bo->event_queue,
++                                 atomic_read(&bo->reserved) == 0);
++              }
++      }
++      return 0;
++}
++
++int ttm_bo_synccpu_write_grab(struct ttm_buffer_object *bo, bool no_wait)
++{
++      int ret = 0;
++
++      /*
++       * Using ttm_bo_reserve instead of ttm_bo_block_reservation
++       * makes sure the lru lists are updated.
++       */
++
++      ret = ttm_bo_reserve(bo, true, no_wait, false, 0);
++      if (unlikely(ret != 0))
++              return ret;
++      mutex_lock(&bo->mutex);
++      ret = ttm_bo_wait(bo, false, true, no_wait);
++      if (unlikely(ret != 0))
++              goto out_err0;
++      atomic_inc(&bo->cpu_writers);
++      out_err0:
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unreserve(bo);
++      return ret;
++}
++
++void ttm_bo_synccpu_write_release(struct ttm_buffer_object *bo)
++{
++      if (atomic_dec_and_test(&bo->cpu_writers))
++              wake_up_all(&bo->event_queue);
++}
++
++/**
++ * A buffer object shrink method that tries to swap out the first
++ * buffer object on the bo_global::swap_lru list.
++ */
++
++static int ttm_bo_swapout(struct ttm_mem_shrink *shrink)
++{
++      struct ttm_bo_device *bdev =
++          container_of(shrink, struct ttm_bo_device, shrink);
++      struct ttm_buffer_object *bo;
++      int ret = -EBUSY;
++      int put_count;
++      uint32_t swap_placement = (TTM_PL_FLAG_CACHED | TTM_PL_FLAG_SYSTEM);
++
++      spin_lock(&bdev->lru_lock);
++      while (ret == -EBUSY) {
++              if (unlikely(list_empty(&bdev->swap_lru))) {
++                      spin_unlock(&bdev->lru_lock);
++                      return -EBUSY;
++              }
++
++              bo = list_first_entry(&bdev->swap_lru,
++                                    struct ttm_buffer_object, swap);
++              kref_get(&bo->list_kref);
++
++              /**
++               * Reserve buffer. Since we unlock while sleeping, we need
++               * to re-check that nobody removed us from the swap-list while
++               * we slept.
++               */
++
++              ret = ttm_bo_reserve_locked(bo, false, true, false, 0);
++              if (unlikely(ret == -EBUSY)) {
++                      spin_unlock(&bdev->lru_lock);
++                      ttm_bo_wait_unreserved(bo, false);
++                      kref_put(&bo->list_kref, ttm_bo_release_list);
++                      spin_lock(&bdev->lru_lock);
++              }
++      }
++
++      BUG_ON(ret != 0);
++      put_count = ttm_bo_del_from_lru(bo);
++      spin_unlock(&bdev->lru_lock);
++
++      while (put_count--)
++              kref_put(&bo->list_kref, ttm_bo_ref_bug);
++
++      /**
++       * Wait for GPU, then move to system cached.
++       */
++
++      mutex_lock(&bo->mutex);
++      ret = ttm_bo_wait(bo, false, false, false);
++      if (unlikely(ret != 0))
++              goto out;
++
++      if ((bo->mem.flags & swap_placement) != swap_placement) {
++              struct ttm_mem_reg evict_mem;
++
++              evict_mem = bo->mem;
++              evict_mem.mm_node = NULL;
++              evict_mem.proposed_flags =
++                  TTM_PL_FLAG_SYSTEM | TTM_PL_FLAG_CACHED;
++              evict_mem.flags = TTM_PL_FLAG_SYSTEM | TTM_PL_FLAG_CACHED;
++              evict_mem.mem_type = TTM_PL_SYSTEM;
++
++              ret = ttm_bo_handle_move_mem(bo, &evict_mem, true, false, false);
++              if (unlikely(ret != 0))
++                      goto out;
++      }
++
++      ttm_bo_unmap_virtual(bo);
++
++      /**
++       * Swap out. Buffer will be swapped in again as soon as
++       * anyone tries to access a ttm page.
++       */
++
++      ret = ttm_tt_swapout(bo->ttm, bo->persistant_swap_storage);
++      out:
++      mutex_unlock(&bo->mutex);
++
++      /**
++       *
++       * Unreserve without putting on LRU to avoid swapping out an
++       * already swapped buffer.
++       */
++
++      atomic_set(&bo->reserved, 0);
++      wake_up_all(&bo->event_queue);
++      kref_put(&bo->list_kref, ttm_bo_release_list);
++      return ret;
++}
++
++void ttm_bo_swapout_all(struct ttm_bo_device *bdev)
++{
++      while (ttm_bo_swapout(&bdev->shrink) == 0) ;
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_bo_api.h b/drivers/gpu/drm/psb/ttm/ttm_bo_api.h
+new file mode 100644
+index 0000000..faf7475
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_bo_api.h
+@@ -0,0 +1,578 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#ifndef _TTM_BO_API_H_
++#define _TTM_BO_API_H_
++
++#include <drm/drm_hashtab.h>
++#include <linux/kref.h>
++#include <linux/list.h>
++#include <linux/wait.h>
++#include <linux/mutex.h>
++#include <linux/mm.h>
++#include <linux/rbtree.h>
++
++struct ttm_bo_device;
++
++struct drm_mm_node;
++
++/**
++ * struct ttm_mem_reg
++ *
++ * @mm_node: Memory manager node.
++ * @size: Requested size of memory region.
++ * @num_pages: Actual size of memory region in pages.
++ * @page_alignment: Page alignment.
++ * @flags: Placement flags.
++ * @proposed_flags: Proposed placement flags.
++ *
++ * Structure indicating the placement and space resources used by a
++ * buffer object.
++ */
++
++struct ttm_mem_reg {
++      struct drm_mm_node *mm_node;
++      unsigned long size;
++      unsigned long num_pages;
++      uint32_t page_alignment;
++      uint32_t mem_type;
++      uint32_t flags;
++      uint32_t proposed_flags;
++};
++
++/**
++ * enum ttm_bo_type
++ *
++ * @ttm_bo_type_device:       These are 'normal' buffers that can
++ * be mmapped by user space. Each of these bos occupy a slot in the
++ * device address space, that can be used for normal vm operations.
++ *
++ * @ttm_bo_type_user: These are user-space memory areas that are made
++ * available to the GPU by mapping the buffer pages into the GPU aperture
++ * space. These buffers cannot be mmaped from the device address space.
++ *
++ * @ttm_bo_type_kernel: These buffers are like ttm_bo_type_device buffers,
++ * but they cannot be accessed from user-space. For kernel-only use.
++ */
++
++enum ttm_bo_type {
++      ttm_bo_type_device,
++      ttm_bo_type_user,
++      ttm_bo_type_kernel
++};
++
++struct ttm_tt;
++
++/**
++ * struct ttm_buffer_object
++ *
++ * @bdev: Pointer to the buffer object device structure.
++ * @kref: Reference count of this buffer object. When this refcount reaches
++ * zero, the object is put on the delayed delete list.
++ * @list_kref: List reference count of this buffer object. This member is
++ * used to avoid destruction while the buffer object is still on a list.
++ * Lru lists may keep one refcount, the delayed delete list, and kref != 0
++ * keeps one refcount. When this refcount reaches zero,
++ * the object is destroyed.
++ * @proposed_flags: Proposed placement for the buffer. Changed only by the
++ * creator prior to validation as opposed to bo->mem.proposed_flags which is
++ * changed by the implementation prior to a buffer move if it wants to outsmart
++ * the buffer creator / user. This latter happens, for example, at eviction.
++ * @buffer_start: The virtual user-space start address of ttm_bo_type_user
++ * buffers.
++ * @type: The bo type.
++ * @offset: The current GPU offset, which can have different meanings
++ * depending on the memory type. For SYSTEM type memory, it should be 0.
++ * @mem: structure describing current placement.
++ * @val_seq: Sequence of the validation holding the @reserved lock.
++ * Used to avoid starvation when many processes compete to validate the
++ * buffer. This member is protected by the bo_device::lru_lock.
++ * @seq_valid: The value of @val_seq is valid. This value is protected by
++ * the bo_device::lru_lock.
++ * @lru: List head for the lru list.
++ * @ddestroy: List head for the delayed destroy list.
++ * @swap: List head for swap LRU list.
++ * @persistant_swap_storage: Usually the swap storage is deleted for buffers
++ * pinned in physical memory. If this behaviour is not desired, this member
++ * holds a pointer to a persistant shmem object.
++ * @destroy: Destruction function. If NULL, kfree is used.
++ * @sync_obj_arg: Opaque argument to synchronization object function.
++ * @sync_obj: Pointer to a synchronization object.
++ * @priv_flags: Flags describing buffer object internal state.
++ * @event_queue: Queue for processes waiting on buffer object status change.
++ * @mutex: Lock protecting all members with the exception of constant members
++ * and list heads. We should really use a spinlock here.
++ * @num_pages: Actual number of pages.
++ * @ttm: TTM structure holding system pages.
++ * @vm_hash: Hash item for fast address space lookup. Need to change to a
++ * rb-tree node.
++ * @vm_node: Address space manager node.
++ * @addr_space_offset: Address space offset.
++ * @cpu_writes: For synchronization. Number of cpu writers.
++ * @reserved: Deadlock-free lock used for synchronization state transitions.
++ * @acc_size: Accounted size for this object.
++ *
++ * Base class for TTM buffer object, that deals with data placement and CPU
++ * mappings. GPU mappings are really up to the driver, but for simpler GPUs
++ * the driver can usually use the placement offset @offset directly as the
++ * GPU virtual address. For drivers implementing multiple
++ * GPU memory manager contexts, the driver should manage the address space
++ * in these contexts separately and use these objects to get the correct
++ * placement and caching for these GPU maps. This makes it possible to use
++ * these objects for even quite elaborate memory management schemes.
++ * The destroy member, the API visibility of this object makes it possible
++ * to derive driver specific types.
++ */
++
++struct ttm_buffer_object {
++      struct ttm_bo_device *bdev;
++      struct kref kref;
++      struct kref list_kref;
++
++      /*
++       * If there is a possibility that the usage variable is zero,
++       * then dev->struct_mutex should be locked before incrementing it.
++       */
++
++      uint32_t proposed_flags;
++      unsigned long buffer_start;
++      enum ttm_bo_type type;
++      unsigned long offset;
++      struct ttm_mem_reg mem;
++      uint32_t val_seq;
++      bool seq_valid;
++
++      struct list_head lru;
++      struct list_head ddestroy;
++      struct list_head swap;
++
++      struct file *persistant_swap_storage;
++
++      void (*destroy) (struct ttm_buffer_object *);
++
++      void *sync_obj_arg;
++      void *sync_obj;
++
++      uint32_t priv_flags;
++      wait_queue_head_t event_queue;
++      struct mutex mutex;
++      unsigned long num_pages;
++
++      struct ttm_tt *ttm;
++      struct rb_node vm_rb;
++      struct drm_mm_node *vm_node;
++      uint64_t addr_space_offset;
++
++      atomic_t cpu_writers;
++      atomic_t reserved;
++
++      size_t acc_size;
++};
++
++/**
++ * struct ttm_bo_kmap_obj
++ *
++ * @virtual: The current kernel virtual address.
++ * @page: The page when kmap'ing a single page.
++ * @bo_kmap_type: Type of bo_kmap.
++ *
++ * Object describing a kernel mapping. Since a TTM bo may be located
++ * in various memory types with various caching policies, the
++ * mapping can either be an ioremap, a vmap, a kmap or part of a
++ * premapped region.
++ */
++
++struct ttm_bo_kmap_obj {
++      void *virtual;
++      struct page *page;
++      enum {
++              ttm_bo_map_iomap,
++              ttm_bo_map_vmap,
++              ttm_bo_map_kmap,
++              ttm_bo_map_premapped,
++      } bo_kmap_type;
++};
++
++/**
++ * ttm_bo_reference - reference a struct ttm_buffer_object
++ *
++ * @bo: The buffer object.
++ *
++ * Returns a refcounted pointer to a buffer object.
++ */
++
++static inline struct ttm_buffer_object *ttm_bo_reference(struct
++                                                       ttm_buffer_object *bo)
++{
++      kref_get(&bo->kref);
++      return bo;
++}
++
++/**
++ * ttm_bo_wait - wait for buffer idle.
++ *
++ * @bo:  The buffer object.
++ * @interruptible:  Use interruptible wait.
++ * @no_wait:  Return immediately if buffer is busy.
++ *
++ * This function must be called with the bo::mutex held, and makes
++ * sure any previous rendering to the buffer is completed.
++ * Note: It might be necessary to block validations before the
++ * wait by reserving the buffer.
++ * Returns -EBUSY if no_wait is true and the buffer is busy.
++ * Returns -ERESTART if interrupted by a signal.
++ */
++extern int ttm_bo_wait(struct ttm_buffer_object *bo, bool lazy,
++                     bool interruptible, bool no_wait);
++/**
++ * ttm_buffer_object_validate
++ *
++ * @bo: The buffer object.
++ * @interruptible: Sleep interruptible if sleeping.
++ * @no_wait: Return immediately if the buffer is busy.
++ *
++ * Changes placement and caching policy of the buffer object
++ * according to bo::proposed_flags.
++ * Returns
++ * -EINVAL on invalid proposed_flags.
++ * -ENOMEM on out-of-memory condition.
++ * -EBUSY if no_wait is true and buffer busy.
++ * -ERESTART if interrupted by a signal.
++ */
++extern int ttm_buffer_object_validate(struct ttm_buffer_object *bo,
++                                    bool interruptible, bool no_wait);
++/**
++ * ttm_bo_unref
++ *
++ * @bo: The buffer object.
++ *
++ * Unreference and clear a pointer to a buffer object.
++ */
++extern void ttm_bo_unref(struct ttm_buffer_object **bo);
++
++/**
++ * ttm_bo_synccpu_write_grab
++ *
++ * @bo: The buffer object:
++ * @no_wait: Return immediately if buffer is busy.
++ *
++ * Synchronizes a buffer object for CPU RW access. This means
++ * blocking command submission that affects the buffer and
++ * waiting for buffer idle. This lock is recursive.
++ * Returns
++ * -EBUSY if the buffer is busy and no_wait is true.
++ * -ERESTART if interrupted by a signal.
++ */
++
++extern int ttm_bo_synccpu_write_grab(struct ttm_buffer_object *bo, bool no_wait);
++/**
++ * ttm_bo_synccpu_write_release:
++ *
++ * @bo : The buffer object.
++ *
++ * Releases a synccpu lock.
++ */
++extern void ttm_bo_synccpu_write_release(struct ttm_buffer_object *bo);
++
++/**
++ * ttm_buffer_object_init
++ *
++ * @bdev: Pointer to a ttm_bo_device struct.
++ * @bo: Pointer to a ttm_buffer_object to be initialized.
++ * @size: Requested size of buffer object.
++ * @type: Requested type of buffer object.
++ * @flags: Initial placement flags.
++ * @page_alignment: Data alignment in pages.
++ * @buffer_start: Virtual address of user space data backing a
++ * user buffer object.
++ * @interruptible: If needing to sleep to wait for GPU resources,
++ * sleep interruptible.
++ * @persistant_swap_storage: Usually the swap storage is deleted for buffers
++ * pinned in physical memory. If this behaviour is not desired, this member
++ * holds a pointer to a persistant shmem object. Typically, this would
++ * point to the shmem object backing a GEM object if TTM is used to back a
++ * GEM user interface.
++ * @acc_size: Accounted size for this object.
++ * @destroy: Destroy function. Use NULL for kfree().
++ *
++ * This function initializes a pre-allocated struct ttm_buffer_object.
++ * As this object may be part of a larger structure, this function,
++ * together with the @destroy function,
++ * enables driver-specific objects derived from a ttm_buffer_object.
++ * On successful return, the object kref and list_kref are set to 1.
++ * Returns
++ * -ENOMEM: Out of memory.
++ * -EINVAL: Invalid placement flags.
++ * -ERESTART: Interrupted by signal while sleeping waiting for resources.
++ */
++
++extern int ttm_buffer_object_init(struct ttm_bo_device *bdev,
++                                struct ttm_buffer_object *bo,
++                                unsigned long size,
++                                enum ttm_bo_type type,
++                                uint32_t flags,
++                                uint32_t page_alignment,
++                                unsigned long buffer_start,
++                                bool interrubtible,
++                                struct file *persistant_swap_storage,
++                                size_t acc_size,
++                                void (*destroy) (struct ttm_buffer_object *));
++/**
++ * ttm_bo_synccpu_object_init
++ *
++ * @bdev: Pointer to a ttm_bo_device struct.
++ * @bo: Pointer to a ttm_buffer_object to be initialized.
++ * @size: Requested size of buffer object.
++ * @type: Requested type of buffer object.
++ * @flags: Initial placement flags.
++ * @page_alignment: Data alignment in pages.
++ * @buffer_start: Virtual address of user space data backing a
++ * user buffer object.
++ * @interruptible: If needing to sleep while waiting for GPU resources,
++ * sleep interruptible.
++ * @persistant_swap_storage: Usually the swap storage is deleted for buffers
++ * pinned in physical memory. If this behaviour is not desired, this member
++ * holds a pointer to a persistant shmem object. Typically, this would
++ * point to the shmem object backing a GEM object if TTM is used to back a
++ * GEM user interface.
++ * @p_bo: On successful completion *p_bo points to the created object.
++ *
++ * This function allocates a ttm_buffer_object, and then calls
++ * ttm_buffer_object_init on that object.
++ * The destroy function is set to kfree().
++ * Returns
++ * -ENOMEM: Out of memory.
++ * -EINVAL: Invalid placement flags.
++ * -ERESTART: Interrupted by signal while waiting for resources.
++ */
++
++extern int ttm_buffer_object_create(struct ttm_bo_device *bdev,
++                                  unsigned long size,
++                                  enum ttm_bo_type type,
++                                  uint32_t flags,
++                                  uint32_t page_alignment,
++                                  unsigned long buffer_start,
++                                  bool interruptible,
++                                  struct file *persistant_swap_storage,
++                                  struct ttm_buffer_object **p_bo);
++
++/**
++ * ttm_bo_check_placement
++ *
++ * @bo: the buffer object.
++ * @set_flags: placement flags to set.
++ * @clr_flags: placement flags to clear.
++ *
++ * Performs minimal validity checking on an intended change of
++ * placement flags.
++ * Returns
++ * -EINVAL: Intended change is invalid or not allowed.
++ */
++
++extern int ttm_bo_check_placement(struct ttm_buffer_object *bo,
++                                uint32_t set_flags, uint32_t clr_flags);
++
++/**
++ * ttm_bo_init_mm
++ *
++ * @bdev: Pointer to a ttm_bo_device struct.
++ * @mem_type: The memory type.
++ * @p_offset: offset for managed area in pages.
++ * @p_size: size managed area in pages.
++ *
++ * Initialize a manager for a given memory type.
++ * Note: if part of driver firstopen, it must be protected from a
++ * potentially racing lastclose.
++ * Returns:
++ * -EINVAL: invalid size or memory type.
++ * -ENOMEM: Not enough memory.
++ * May also return driver-specified errors.
++ */
++
++extern int ttm_bo_init_mm(struct ttm_bo_device *bdev, unsigned type,
++                        unsigned long p_offset, unsigned long p_size);
++/**
++ * ttm_bo_clean_mm
++ *
++ * @bdev: Pointer to a ttm_bo_device struct.
++ * @mem_type: The memory type.
++ *
++ * Take down a manager for a given memory type after first walking
++ * the LRU list to evict any buffers left alive.
++ *
++ * Normally, this function is part of lastclose() or unload(), and at that
++ * point there shouldn't be any buffers left created by user-space, since
++ * there should've been removed by the file descriptor release() method.
++ * However, before this function is run, make sure to signal all sync objects,
++ * and verify that the delayed delete queue is empty. The driver must also
++ * make sure that there are no NO_EVICT buffers present in this memory type
++ * when the call is made.
++ *
++ * If this function is part of a VT switch, the caller must make sure that
++ * there are no appications currently validating buffers before this
++ * function is called. The caller can do that by first taking the
++ * struct ttm_bo_device::ttm_lock in write mode.
++ *
++ * Returns:
++ * -EINVAL: invalid or uninitialized memory type.
++ * -EBUSY: There are still buffers left in this memory type.
++ */
++
++extern int ttm_bo_clean_mm(struct ttm_bo_device *bdev, unsigned mem_type);
++
++/**
++ * ttm_bo_evict_mm
++ *
++ * @bdev: Pointer to a ttm_bo_device struct.
++ * @mem_type: The memory type.
++ *
++ * Evicts all buffers on the lru list of the memory type.
++ * This is normally part of a VT switch or an
++ * out-of-memory-space-due-to-fragmentation handler.
++ * The caller must make sure that there are no other processes
++ * currently validating buffers, and can do that by taking the
++ * struct ttm_bo_device::ttm_lock in write mode.
++ *
++ * Returns:
++ * -EINVAL: Invalid or uninitialized memory type.
++ * -ERESTART: The call was interrupted by a signal while waiting to
++ * evict a buffer.
++ */
++
++extern int ttm_bo_evict_mm(struct ttm_bo_device *bdev, unsigned mem_type);
++
++/**
++ * ttm_kmap_obj_virtual
++ *
++ * @map: A struct ttm_bo_kmap_obj returned from ttm_bo_kmap.
++ * @is_iomem: Pointer to an integer that on return indicates 1 if the
++ * virtual map is io memory, 0 if normal memory.
++ *
++ * Returns the virtual address of a buffer object area mapped by ttm_bo_kmap.
++ * If *is_iomem is 1 on return, the virtual address points to an io memory area,
++ * that should strictly be accessed by the iowriteXX() and similar functions.
++ */
++
++static inline void *ttm_kmap_obj_virtual(struct ttm_bo_kmap_obj *map,
++                                       bool *is_iomem)
++{
++      *is_iomem = (map->bo_kmap_type == ttm_bo_map_iomap ||
++                   map->bo_kmap_type == ttm_bo_map_premapped);
++      return map->virtual;
++}
++
++/**
++ * ttm_bo_kmap
++ *
++ * @bo: The buffer object.
++ * @start_page: The first page to map.
++ * @num_pages: Number of pages to map.
++ * @map: pointer to a struct ttm_bo_kmap_obj representing the map.
++ *
++ * Sets up a kernel virtual mapping, using ioremap, vmap or kmap to the
++ * data in the buffer object. The ttm_kmap_obj_virtual function can then be
++ * used to obtain a virtual address to the data.
++ *
++ * Returns
++ * -ENOMEM: Out of memory.
++ * -EINVAL: Invalid range.
++ */
++
++extern int ttm_bo_kmap(struct ttm_buffer_object *bo, unsigned long start_page,
++                     unsigned long num_pages, struct ttm_bo_kmap_obj *map);
++
++/**
++ * ttm_bo_kunmap
++ *
++ * @map: Object describing the map to unmap.
++ *
++ * Unmaps a kernel map set up by ttm_bo_kmap.
++ */
++
++extern void ttm_bo_kunmap(struct ttm_bo_kmap_obj *map);
++
++#if 0
++#endif
++
++/**
++ * ttm_fbdev_mmap - mmap fbdev memory backed by a ttm buffer object.
++ *
++ * @vma:       vma as input from the fbdev mmap method.
++ * @bo:        The bo backing the address space. The address space will
++ * have the same size as the bo, and start at offset 0.
++ *
++ * This function is intended to be called by the fbdev mmap method
++ * if the fbdev address space is to be backed by a bo.
++ */
++
++extern int ttm_fbdev_mmap(struct vm_area_struct *vma,
++                        struct ttm_buffer_object *bo);
++
++/**
++ * ttm_bo_mmap - mmap out of the ttm device address space.
++ *
++ * @filp:      filp as input from the mmap method.
++ * @vma:       vma as input from the mmap method.
++ * @bdev:      Pointer to the ttm_bo_device with the address space manager.
++ *
++ * This function is intended to be called by the device mmap method.
++ * if the device address space is to be backed by the bo manager.
++ */
++
++extern int ttm_bo_mmap(struct file *filp, struct vm_area_struct *vma,
++                     struct ttm_bo_device *bdev);
++
++/**
++ * ttm_bo_io
++ *
++ * @bdev:      Pointer to the struct ttm_bo_device.
++ * @filp:      Pointer to the struct file attempting to read / write.
++ * @wbuf:      User-space pointer to address of buffer to write. NULL on read.
++ * @rbuf:      User-space pointer to address of buffer to read into. Null on write.
++ * @count:     Number of bytes to read / write.
++ * @f_pos:     Pointer to current file position.
++ * @write:     1 for read, 0 for write.
++ *
++ * This function implements read / write into ttm buffer objects, and is intended to
++ * be called from the fops::read and fops::write method.
++ * Returns:
++ * See man (2) write, man(2) read. In particular, the function may return -EINTR if
++ * interrupted by a signal.
++ */
++
++extern ssize_t ttm_bo_io(struct ttm_bo_device *bdev, struct file *filp,
++                       const char __user * wbuf, char __user * rbuf,
++                       size_t count, loff_t * f_pos, bool write);
++
++extern void ttm_bo_swapout_all(struct ttm_bo_device *bdev);
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_bo_driver.h b/drivers/gpu/drm/psb/ttm/ttm_bo_driver.h
+new file mode 100644
+index 0000000..f7efb45
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_bo_driver.h
+@@ -0,0 +1,859 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 Vmware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++#ifndef _TTM_BO_DRIVER_H_
++#define _TTM_BO_DRIVER_H_
++
++#include "ttm/ttm_bo_api.h"
++#include "ttm/ttm_memory.h"
++#include <drm/drm_mm.h>
++#include "linux/workqueue.h"
++#include "linux/fs.h"
++#include "linux/spinlock.h"
++
++struct ttm_backend;
++
++struct ttm_backend_func {
++      /**
++       * struct ttm_backend_func member populate
++       *
++       * @backend: Pointer to a struct ttm_backend.
++       * @num_pages: Number of pages to populate.
++       * @pages: Array of pointers to ttm pages.
++       * @dummy_read_page: Page to be used instead of NULL pages in the
++       * array @pages.
++       *
++       * Populate the backend with ttm pages. Depending on the backend,
++       * it may or may not copy the @pages array.
++       */
++      int (*populate) (struct ttm_backend * backend,
++                       unsigned long num_pages, struct page ** pages,
++                       struct page * dummy_read_page);
++      /**
++       * struct ttm_backend_func member clear
++       *
++       * @backend: Pointer to a struct ttm_backend.
++       *
++       * This is an "unpopulate" function. Release all resources
++       * allocated with populate.
++       */
++      void (*clear) (struct ttm_backend * backend);
++
++      /**
++       * struct ttm_backend_func member bind
++       *
++       * @backend: Pointer to a struct ttm_backend.
++       * @bo_mem: Pointer to a struct ttm_mem_reg describing the
++       * memory type and location for binding.
++       *
++       * Bind the backend pages into the aperture in the location
++       * indicated by @bo_mem. This function should be able to handle
++       * differences between aperture- and system page sizes.
++       */
++      int (*bind) (struct ttm_backend * backend, struct ttm_mem_reg * bo_mem);
++
++      /**
++       * struct ttm_backend_func member unbind
++       *
++       * @backend: Pointer to a struct ttm_backend.
++       *
++       * Unbind previously bound backend pages. This function should be
++       * able to handle differences between aperture- and system page sizes.
++       */
++      int (*unbind) (struct ttm_backend * backend);
++
++      /**
++       * struct ttm_backend_func member destroy
++       *
++       * @backend: Pointer to a struct ttm_backend.
++       *
++       * Destroy the backend.
++       */
++      void (*destroy) (struct ttm_backend * backend);
++};
++
++/**
++ * struct ttm_backend
++ *
++ * @bdev: Pointer to a struct ttm_bo_device.
++ * @flags: For driver use.
++ * @func: Pointer to a struct ttm_backend_func that describes
++ * the backend methods.
++ *
++ */
++
++struct ttm_backend {
++      struct ttm_bo_device *bdev;
++      uint32_t flags;
++      struct ttm_backend_func *func;
++};
++
++#define TTM_PAGE_FLAG_VMALLOC         (1 << 0)
++#define TTM_PAGE_FLAG_USER            (1 << 1)
++#define TTM_PAGE_FLAG_USER_DIRTY      (1 << 2)
++#define TTM_PAGE_FLAG_WRITE           (1 << 3)
++#define TTM_PAGE_FLAG_SWAPPED         (1 << 4)
++#define TTM_PAGE_FLAG_PERSISTANT_SWAP (1 << 5)
++
++enum ttm_caching_state {
++      tt_uncached,
++      tt_wc,
++      tt_cached
++};
++
++/**
++ * struct ttm_tt
++ *
++ * @dummy_read_page: Page to map where the ttm_tt page array contains a NULL
++ * pointer.
++ * @pages: Array of pages backing the data.
++ * @first_himem_page: Himem pages are put last in the page array, which
++ * enables us to run caching attribute changes on only the first part
++ * of the page array containing lomem pages. This is the index of the
++ * first himem page.
++ * @last_lomem_page: Index of the last lomem page in the page array.
++ * @num_pages: Number of pages in the page array.
++ * @bdev: Pointer to the current struct ttm_bo_device.
++ * @be: Pointer to the ttm backend.
++ * @tsk: The task for user ttm.
++ * @start: virtual address for user ttm.
++ * @swap_storage: Pointer to shmem struct file for swap storage.
++ * @caching_state: The current caching state of the pages.
++ * @state: The current binding state of the pages.
++ *
++ * This is a structure holding the pages, caching- and aperture binding
++ * status for a buffer object that isn't backed by fixed (VRAM / AGP)
++ * memory.
++ */
++
++struct ttm_tt {
++      struct page *dummy_read_page;
++      struct page **pages;
++      long first_himem_page;
++      long last_lomem_page;
++      uint32_t page_flags;
++      unsigned long num_pages;
++      struct ttm_bo_device *bdev;
++      struct ttm_backend *be;
++      struct task_struct *tsk;
++      unsigned long start;
++      struct file *swap_storage;
++      enum ttm_caching_state caching_state;
++      enum {
++              tt_bound,
++              tt_unbound,
++              tt_unpopulated,
++      } state;
++};
++
++#define TTM_MEMTYPE_FLAG_FIXED         (1 << 0)       /* Fixed (on-card) PCI memory */
++#define TTM_MEMTYPE_FLAG_MAPPABLE      (1 << 1)       /* Memory mappable */
++#define TTM_MEMTYPE_FLAG_NEEDS_IOREMAP (1 << 2)       /* Fixed memory needs ioremap
++                                                 before kernel access. */
++#define TTM_MEMTYPE_FLAG_CMA           (1 << 3)       /* Can't map aperture */
++
++/**
++ * struct ttm_mem_type_manager
++ *
++ * @has_type: The memory type has been initialized.
++ * @use_type: The memory type is enabled.
++ * @flags: TTM_MEMTYPE_XX flags identifying the traits of the memory
++ * managed by this memory type.
++ * @gpu_offset: If used, the GPU offset of the first managed page of
++ * fixed memory or the first managed location in an aperture.
++ * @io_offset: The io_offset of the first managed page of IO memory or
++ * the first managed location in an aperture. For TTM_MEMTYPE_FLAG_CMA
++ * memory, this should be set to NULL.
++ * @io_size: The size of a managed IO region (fixed memory or aperture).
++ * @io_addr: Virtual kernel address if the io region is pre-mapped. For
++ * TTM_MEMTYPE_FLAG_NEEDS_IOREMAP there is no pre-mapped io map and
++ * @io_addr should be set to NULL.
++ * @size: Size of the managed region.
++ * @available_caching: A mask of available caching types, TTM_PL_FLAG_XX,
++ * as defined in ttm_placement_common.h
++ * @default_caching: The default caching policy used for a buffer object
++ * placed in this memory type if the user doesn't provide one.
++ * @manager: The range manager used for this memory type. FIXME: If the aperture
++ * has a page size different from the underlying system, the granularity
++ * of this manager should take care of this. But the range allocating code
++ * in ttm_bo.c needs to be modified for this.
++ * @lru: The lru list for this memory type.
++ *
++ * This structure is used to identify and manage memory types for a device.
++ * It's set up by the ttm_bo_driver::init_mem_type method.
++ */
++
++struct ttm_mem_type_manager {
++
++      /*
++       * No protection. Constant from start.
++       */
++
++      bool has_type;
++      bool use_type;
++      uint32_t flags;
++      unsigned long gpu_offset;
++      unsigned long io_offset;
++      unsigned long io_size;
++      void *io_addr;
++      uint64_t size;
++      uint32_t available_caching;
++      uint32_t default_caching;
++
++      /*
++       * Protected by the bdev->lru_lock.
++       * TODO: Consider one lru_lock per ttm_mem_type_manager.
++       * Plays ill with list removal, though.
++       */
++
++      struct drm_mm manager;
++      struct list_head lru;
++};
++
++/**
++ * struct ttm_bo_driver
++ *
++ * @mem_type_prio: Priority array of memory types to place a buffer object in
++ * if it fits without evicting buffers from any of these memory types.
++ * @mem_busy_prio: Priority array of memory types to place a buffer object in
++ * if it needs to evict buffers to make room.
++ * @num_mem_type_prio: Number of elements in the @mem_type_prio array.
++ * @num_mem_busy_prio: Number of elements in the @num_mem_busy_prio array.
++ * @create_ttm_backend_entry: Callback to create a struct ttm_backend.
++ * @invalidate_caches: Callback to invalidate read caches when a buffer object
++ * has been evicted.
++ * @init_mem_type: Callback to initialize a struct ttm_mem_type_manager structure.
++ * @evict_flags: Callback to obtain placement flags when a buffer is evicted.
++ * @move: Callback for a driver to hook in accelerated functions to move a buffer.
++ * If set to NULL, a potentially slow memcpy() move is used.
++ * @sync_obj_signaled: See ttm_fence_api.h
++ * @sync_obj_wait: See ttm_fence_api.h
++ * @sync_obj_flush: See ttm_fence_api.h
++ * @sync_obj_unref: See ttm_fence_api.h
++ * @sync_obj_ref: See ttm_fence_api.h
++ */
++
++struct ttm_bo_driver {
++      const uint32_t *mem_type_prio;
++      const uint32_t *mem_busy_prio;
++      uint32_t num_mem_type_prio;
++      uint32_t num_mem_busy_prio;
++
++      /**
++       * struct ttm_bo_driver member create_ttm_backend_entry
++       *
++       * @bdev: The buffer object device.
++       *
++       * Create a driver specific struct ttm_backend.
++       */
++
++      struct ttm_backend *(*create_ttm_backend_entry)
++       (struct ttm_bo_device * bdev);
++
++      /**
++       * struct ttm_bo_driver member invalidate_caches
++       *
++       * @bdev: the buffer object device.
++       * @flags: new placement of the rebound buffer object.
++       *
++       * A previosly evicted buffer has been rebound in a
++       * potentially new location. Tell the driver that it might
++       * consider invalidating read (texture) caches on the next command
++       * submission as a consequence.
++       */
++
++      int (*invalidate_caches) (struct ttm_bo_device * bdev, uint32_t flags);
++      int (*init_mem_type) (struct ttm_bo_device * bdev, uint32_t type,
++                            struct ttm_mem_type_manager * man);
++      /**
++       * struct ttm_bo_driver member evict_flags:
++       *
++       * @bo: the buffer object to be evicted
++       *
++       * Return the bo flags for a buffer which is not mapped to the hardware.
++       * These will be placed in proposed_flags so that when the move is
++       * finished, they'll end up in bo->mem.flags
++       */
++
++       uint32_t(*evict_flags) (struct ttm_buffer_object * bo);
++      /**
++       * struct ttm_bo_driver member move:
++       *
++       * @bo: the buffer to move
++       * @evict: whether this motion is evicting the buffer from
++       * the graphics address space
++       * @interruptible: Use interruptible sleeps if possible when sleeping.
++       * @no_wait: whether this should give up and return -EBUSY
++       * if this move would require sleeping
++       * @new_mem: the new memory region receiving the buffer
++       *
++       * Move a buffer between two memory regions.
++       */
++      int (*move) (struct ttm_buffer_object * bo,
++                   bool evict, bool interruptible,
++                   bool no_wait, struct ttm_mem_reg * new_mem);
++
++      /**
++       * struct ttm_bo_driver_member verify_access
++       *
++       * @bo: Pointer to a buffer object.
++       * @filp: Pointer to a struct file trying to access the object.
++       *
++       * Called from the map / write / read methods to verify that the
++       * caller is permitted to access the buffer object.
++       * This member may be set to NULL, which will refuse this kind of
++       * access for all buffer objects.
++       * This function should return 0 if access is granted, -EPERM otherwise.
++       */
++      int (*verify_access) (struct ttm_buffer_object * bo,
++                            struct file * filp);
++
++      /**
++       * In case a driver writer dislikes the TTM fence objects,
++       * the driver writer can replace those with sync objects of
++       * his / her own. If it turns out that no driver writer is
++       * using these. I suggest we remove these hooks and plug in
++       * fences directly. The bo driver needs the following functionality:
++       * See the corresponding functions in the fence object API
++       * documentation.
++       */
++
++      bool (*sync_obj_signaled) (void *sync_obj, void *sync_arg);
++      int (*sync_obj_wait) (void *sync_obj, void *sync_arg,
++                            bool lazy, bool interruptible);
++      int (*sync_obj_flush) (void *sync_obj, void *sync_arg);
++      void (*sync_obj_unref) (void **sync_obj);
++      void *(*sync_obj_ref) (void *sync_obj);
++};
++
++#define TTM_NUM_MEM_TYPES 11
++
++#define TTM_BO_PRIV_FLAG_EVICTED  (1 << 0)    /* Buffer object is evicted. */
++#define TTM_BO_PRIV_FLAG_MOVING   (1 << 1)    /* Buffer object is moving and needs
++                                                 idling before CPU mapping */
++/**
++ * struct ttm_bo_device - Buffer object driver device-specific data.
++ *
++ * @mem_glob: Pointer to a struct ttm_mem_global object for accounting.
++ * @driver: Pointer to a struct ttm_bo_driver struct setup by the driver.
++ * @count: Current number of buffer object.
++ * @pages: Current number of pinned pages.
++ * @dummy_read_page: Pointer to a dummy page used for mapping requests
++ * of unpopulated pages.
++ * @shrink: A shrink callback object used for buffre object swap.
++ * @ttm_bo_extra_size: Extra size (sizeof(struct ttm_buffer_object) excluded)
++ * used by a buffer object. This is excluding page arrays and backing pages.
++ * @ttm_bo_size: This is @ttm_bo_extra_size + sizeof(struct ttm_buffer_object).
++ * @man: An array of mem_type_managers.
++ * @addr_space_mm: Range manager for the device address space.
++ * lru_lock: Spinlock that protects the buffer+device lru lists and
++ * ddestroy lists.
++ * @nice_mode: Try nicely to wait for buffer idle when cleaning a manager.
++ * If a GPU lockup has been detected, this is forced to 0.
++ * @dev_mapping: A pointer to the struct address_space representing the
++ * device address space.
++ * @wq: Work queue structure for the delayed delete workqueue.
++ *
++ */
++
++struct ttm_bo_device {
++
++      /*
++       * Constant after bo device init / atomic.
++       */
++
++      struct ttm_mem_global *mem_glob;
++      struct ttm_bo_driver *driver;
++      struct page *dummy_read_page;
++      struct ttm_mem_shrink shrink;
++
++      size_t ttm_bo_extra_size;
++      size_t ttm_bo_size;
++
++      rwlock_t vm_lock;
++      /*
++       * Protected by the vm lock.
++       */
++      struct ttm_mem_type_manager man[TTM_NUM_MEM_TYPES];
++      struct rb_root addr_space_rb;
++      struct drm_mm addr_space_mm;
++
++      /*
++       * Might want to change this to one lock per manager.
++       */
++      spinlock_t lru_lock;
++      /*
++       * Protected by the lru lock.
++       */
++      struct list_head ddestroy;
++      struct list_head swap_lru;
++
++      /*
++       * Protected by load / firstopen / lastclose /unload sync.
++       */
++
++      bool nice_mode;
++      struct address_space *dev_mapping;
++
++      /*
++       * Internal protection.
++       */
++
++      struct delayed_work wq;
++};
++
++/**
++ * ttm_flag_masked
++ *
++ * @old: Pointer to the result and original value.
++ * @new: New value of bits.
++ * @mask: Mask of bits to change.
++ *
++ * Convenience function to change a number of bits identified by a mask.
++ */
++
++static inline uint32_t
++ttm_flag_masked(uint32_t * old, uint32_t new, uint32_t mask)
++{
++      *old ^= (*old ^ new) & mask;
++      return *old;
++}
++
++/**
++ * ttm_tt_create
++ *
++ * @bdev: pointer to a struct ttm_bo_device:
++ * @size: Size of the data needed backing.
++ * @page_flags: Page flags as identified by TTM_PAGE_FLAG_XX flags.
++ * @dummy_read_page: See struct ttm_bo_device.
++ *
++ * Create a struct ttm_tt to back data with system memory pages.
++ * No pages are actually allocated.
++ * Returns:
++ * NULL: Out of memory.
++ */
++extern struct ttm_tt *ttm_tt_create(struct ttm_bo_device *bdev,
++                                  unsigned long size,
++                                  uint32_t page_flags,
++                                  struct page *dummy_read_page);
++
++/**
++ * ttm_tt_set_user:
++ *
++ * @ttm: The struct ttm_tt to populate.
++ * @tsk: A struct task_struct for which @start is a valid user-space address.
++ * @start: A valid user-space address.
++ * @num_pages: Size in pages of the user memory area.
++ *
++ * Populate a struct ttm_tt with a user-space memory area after first pinning
++ * the pages backing it.
++ * Returns:
++ * !0: Error.
++ */
++
++extern int ttm_tt_set_user(struct ttm_tt *ttm,
++                         struct task_struct *tsk,
++                         unsigned long start, unsigned long num_pages);
++
++/**
++ * ttm_ttm_bind:
++ *
++ * @ttm: The struct ttm_tt containing backing pages.
++ * @bo_mem: The struct ttm_mem_reg identifying the binding location.
++ *
++ * Bind the pages of @ttm to an aperture location identified by @bo_mem
++ */
++extern int ttm_tt_bind(struct ttm_tt *ttm, struct ttm_mem_reg *bo_mem);
++
++/**
++ * ttm_ttm_destroy:
++ *
++ * @ttm: The struct ttm_tt.
++ *
++ * Unbind, unpopulate and destroy a struct ttm_tt.
++ */
++extern void ttm_tt_destroy(struct ttm_tt *ttm);
++
++/**
++ * ttm_ttm_unbind:
++ *
++ * @ttm: The struct ttm_tt.
++ *
++ * Unbind a struct ttm_tt.
++ */
++extern void ttm_tt_unbind(struct ttm_tt *ttm);
++
++/**
++ * ttm_ttm_destroy:
++ *
++ * @ttm: The struct ttm_tt.
++ * @index: Index of the desired page.
++ *
++ * Return a pointer to the struct page backing @ttm at page
++ * index @index. If the page is unpopulated, one will be allocated to
++ * populate that index.
++ *
++ * Returns:
++ * NULL on OOM.
++ */
++extern struct page *ttm_tt_get_page(struct ttm_tt *ttm, int index);
++
++/**
++ * ttm_tt_cache_flush:
++ *
++ * @pages: An array of pointers to struct page:s to flush.
++ * @num_pages: Number of pages to flush.
++ *
++ * Flush the data of the indicated pages from the cpu caches.
++ * This is used when changing caching attributes of the pages from
++ * cache-coherent.
++ */
++extern void ttm_tt_cache_flush(struct page *pages[], unsigned long num_pages);
++
++/**
++ * ttm_tt_set_placement_caching:
++ *
++ * @ttm A struct ttm_tt the backing pages of which will change caching policy.
++ * @placement: Flag indicating the desired caching policy.
++ *
++ * This function will change caching policy of any default kernel mappings of
++ * the pages backing @ttm. If changing from cached to uncached or write-combined,
++ * all CPU caches will first be flushed to make sure the data of the pages
++ * hit RAM. This function may be very costly as it involves global TLB
++ * and cache flushes and potential page splitting / combining.
++ */
++extern int ttm_tt_set_placement_caching(struct ttm_tt *ttm, uint32_t placement);
++extern int ttm_tt_swapout(struct ttm_tt *ttm,
++                        struct file *persistant_swap_storage);
++
++/*
++ * ttm_bo.c
++ */
++
++/**
++ * ttm_mem_reg_is_pci
++ *
++ * @bdev: Pointer to a struct ttm_bo_device.
++ * @mem: A valid struct ttm_mem_reg.
++ *
++ * Returns true if the memory described by @mem is PCI memory,
++ * false otherwise.
++ */
++extern bool ttm_mem_reg_is_pci(struct ttm_bo_device *bdev,
++                                 struct ttm_mem_reg *mem);
++
++/**
++ * ttm_bo_mem_space
++ *
++ * @bo: Pointer to a struct ttm_buffer_object. the data of which
++ * we want to allocate space for.
++ * @mem: A struct ttm_mem_reg with the struct ttm_mem_reg::proposed_flags set
++ * up.
++ * @interruptible: Sleep interruptible when sliping.
++ * @no_wait: Don't sleep waiting for space to become available.
++ *
++ * Allocate memory space for the buffer object pointed to by @bo, using
++ * the placement flags in @mem, potentially evicting other idle buffer objects.
++ * This function may sleep while waiting for space to become available.
++ * Returns:
++ * -EBUSY: No space available (only if no_wait == 1).
++ * -ENOMEM: Could not allocate memory for the buffer object, either due to
++ * fragmentation or concurrent allocators.
++ * -ERESTART: An interruptible sleep was interrupted by a signal.
++ */
++extern int ttm_bo_mem_space(struct ttm_buffer_object *bo,
++                          struct ttm_mem_reg *mem,
++                          bool interruptible, bool no_wait);
++/**
++ * ttm_bo_wait_for_cpu
++ *
++ * @bo: Pointer to a struct ttm_buffer_object.
++ * @no_wait: Don't sleep while waiting.
++ *
++ * Wait until a buffer object is no longer sync'ed for CPU access.
++ * Returns:
++ * -EBUSY: Buffer object was sync'ed for CPU access. (only if no_wait == 1).
++ * -ERESTART: An interruptible sleep was interrupted by a signal.
++ */
++
++extern int ttm_bo_wait_cpu(struct ttm_buffer_object *bo, bool no_wait);
++
++/**
++ * ttm_bo_pci_offset - Get the PCI offset for the buffer object memory.
++ *
++ * @bo Pointer to a struct ttm_buffer_object.
++ * @bus_base On return the base of the PCI region
++ * @bus_offset On return the byte offset into the PCI region
++ * @bus_size On return the byte size of the buffer object or zero if
++ * the buffer object memory is not accessible through a PCI region.
++ *
++ * Returns:
++ * -EINVAL if the buffer object is currently not mappable.
++ * 0 otherwise.
++ */
++
++extern int ttm_bo_pci_offset(struct ttm_bo_device *bdev,
++                           struct ttm_mem_reg *mem,
++                           unsigned long *bus_base,
++                           unsigned long *bus_offset,
++                           unsigned long *bus_size);
++
++extern int ttm_bo_device_release(struct ttm_bo_device *bdev);
++
++/**
++ * ttm_bo_device_init
++ *
++ * @bdev: A pointer to a struct ttm_bo_device to initialize.
++ * @mem_global: A pointer to an initialized struct ttm_mem_global.
++ * @driver: A pointer to a struct ttm_bo_driver set up by the caller.
++ * @file_page_offset: Offset into the device address space that is available
++ * for buffer data. This ensures compatibility with other users of the
++ * address space.
++ *
++ * Initializes a struct ttm_bo_device:
++ * Returns:
++ * !0: Failure.
++ */
++extern int ttm_bo_device_init(struct ttm_bo_device *bdev,
++                            struct ttm_mem_global *mem_glob,
++                            struct ttm_bo_driver *driver,
++                            uint64_t file_page_offset);
++
++/**
++ * ttm_bo_reserve:
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ * @interruptible: Sleep interruptible if waiting.
++ * @no_wait: Don't sleep while trying to reserve, rather return -EBUSY.
++ * @use_sequence: If @bo is already reserved, Only sleep waiting for
++ * it to become unreserved if @sequence < (@bo)->sequence.
++ *
++ * Locks a buffer object for validation. (Or prevents other processes from
++ * locking it for validation) and removes it from lru lists, while taking
++ * a number of measures to prevent deadlocks.
++ *
++ * Deadlocks may occur when two processes try to reserve multiple buffers in
++ * different order, either by will or as a result of a buffer being evicted
++ * to make room for a buffer already reserved. (Buffers are reserved before
++ * they are evicted). The following algorithm prevents such deadlocks from
++ * occuring:
++ * 1) Buffers are reserved with the lru spinlock held. Upon successful
++ * reservation they are removed from the lru list. This stops a reserved buffer
++ * from being evicted. However the lru spinlock is released between the time
++ * a buffer is selected for eviction and the time it is reserved.
++ * Therefore a check is made when a buffer is reserved for eviction, that it
++ * is still the first buffer in the lru list, before it is removed from the
++ * list. @check_lru == 1 forces this check. If it fails, the function returns
++ * -EINVAL, and the caller should then choose a new buffer to evict and repeat
++ * the procedure.
++ * 2) Processes attempting to reserve multiple buffers other than for eviction,
++ * (typically execbuf), should first obtain a unique 32-bit
++ * validation sequence number,
++ * and call this function with @use_sequence == 1 and @sequence == the unique
++ * sequence number. If upon call of this function, the buffer object is already
++ * reserved, the validation sequence is checked against the validation
++ * sequence of the process currently reserving the buffer,
++ * and if the current validation sequence is greater than that of the process
++ * holding the reservation, the function returns -EAGAIN. Otherwise it sleeps
++ * waiting for the buffer to become unreserved, after which it retries reserving.
++ * The caller should, when receiving an -EAGAIN error
++ * release all its buffer reservations, wait for @bo to become unreserved, and
++ * then rerun the validation with the same validation sequence. This procedure
++ * will always guarantee that the process with the lowest validation sequence
++ * will eventually succeed, preventing both deadlocks and starvation.
++ *
++ * Returns:
++ * -EAGAIN: The reservation may cause a deadlock. Release all buffer reservations,
++ * wait for @bo to become unreserved and try again. (only if use_sequence == 1).
++ * -ERESTART: A wait for the buffer to become unreserved was interrupted by
++ * a signal. Release all buffer reservations and return to user-space.
++ */
++extern int ttm_bo_reserve(struct ttm_buffer_object *bo,
++                        bool interruptible,
++                        bool no_wait, bool use_sequence, uint32_t sequence);
++
++/**
++ * ttm_bo_unreserve
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ *
++ * Unreserve a previous reservation of @bo.
++ */
++extern void ttm_bo_unreserve(struct ttm_buffer_object *bo);
++
++/**
++ * ttm_bo_wait_unreserved
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ *
++ * Wait for a struct ttm_buffer_object to become unreserved.
++ * This is typically used in the execbuf code to relax cpu-usage when
++ * a potential deadlock condition backoff.
++ */
++extern int ttm_bo_wait_unreserved(struct ttm_buffer_object *bo,
++                                bool interruptible);
++
++/**
++ * ttm_bo_block_reservation
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ * @interruptible: Use interruptible sleep when waiting.
++ * @no_wait: Don't sleep, but rather return -EBUSY.
++ *
++ * Block reservation for validation by simply reserving the buffer. This is intended
++ * for single buffer use only without eviction, and thus needs no deadlock protection.
++ *
++ * Returns:
++ * -EBUSY: If no_wait == 1 and the buffer is already reserved.
++ * -ERESTART: If interruptible == 1 and the process received a signal while sleeping.
++ */
++extern int ttm_bo_block_reservation(struct ttm_buffer_object *bo,
++                                  bool interruptible, bool no_wait);
++
++/**
++ * ttm_bo_unblock_reservation
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ *
++ * Unblocks reservation leaving lru lists untouched.
++ */
++extern void ttm_bo_unblock_reservation(struct ttm_buffer_object *bo);
++
++/*
++ * ttm_bo_util.c
++ */
++
++/**
++ * ttm_bo_move_ttm
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ * @evict: 1: This is an eviction. Don't try to pipeline.
++ * @no_wait: Never sleep, but rather return with -EBUSY.
++ * @new_mem: struct ttm_mem_reg indicating where to move.
++ *
++ * Optimized move function for a buffer object with both old and
++ * new placement backed by a TTM. The function will, if successful,
++ * free any old aperture space, and set (@new_mem)->mm_node to NULL,
++ * and update the (@bo)->mem placement flags. If unsuccessful, the old
++ * data remains untouched, and it's up to the caller to free the
++ * memory space indicated by @new_mem.
++ * Returns:
++ * !0: Failure.
++ */
++
++extern int ttm_bo_move_ttm(struct ttm_buffer_object *bo,
++                         bool evict, bool no_wait, struct ttm_mem_reg *new_mem);
++
++/**
++ * ttm_bo_move_memcpy
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ * @evict: 1: This is an eviction. Don't try to pipeline.
++ * @no_wait: Never sleep, but rather return with -EBUSY.
++ * @new_mem: struct ttm_mem_reg indicating where to move.
++ *
++ * Fallback move function for a mappable buffer object in mappable memory.
++ * The function will, if successful,
++ * free any old aperture space, and set (@new_mem)->mm_node to NULL,
++ * and update the (@bo)->mem placement flags. If unsuccessful, the old
++ * data remains untouched, and it's up to the caller to free the
++ * memory space indicated by @new_mem.
++ * Returns:
++ * !0: Failure.
++ */
++
++extern int ttm_bo_move_memcpy(struct ttm_buffer_object *bo,
++                            bool evict,
++                            bool no_wait, struct ttm_mem_reg *new_mem);
++
++/**
++ * ttm_bo_free_old_node
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ *
++ * Utility function to free an old placement after a successful move.
++ */
++extern void ttm_bo_free_old_node(struct ttm_buffer_object *bo);
++
++/**
++ * ttm_bo_move_accel_cleanup.
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ * @sync_obj: A sync object that signals when moving is complete.
++ * @sync_obj_arg: An argument to pass to the sync object idle / wait
++ * functions.
++ * @evict: This is an evict move. Don't return until the buffer is idle.
++ * @no_wait: Never sleep, but rather return with -EBUSY.
++ * @new_mem: struct ttm_mem_reg indicating where to move.
++ *
++ * Accelerated move function to be called when an accelerated move
++ * has been scheduled. The function will create a new temporary buffer object
++ * representing the old placement, and put the sync object on both buffer
++ * objects. After that the newly created buffer object is unref'd to be
++ * destroyed when the move is complete. This will help pipeline
++ * buffer moves.
++ */
++
++extern int ttm_bo_move_accel_cleanup(struct ttm_buffer_object *bo,
++                                   void *sync_obj,
++                                   void *sync_obj_arg,
++                                   bool evict, bool no_wait,
++                                   struct ttm_mem_reg *new_mem);
++/**
++ * ttm_io_prot
++ *
++ * @c_state: Caching state.
++ * @tmp: Page protection flag for a normal, cached mapping.
++ *
++ * Utility function that returns the pgprot_t that should be used for
++ * setting up a PTE with the caching model indicated by @c_state.
++ */
++extern pgprot_t ttm_io_prot(enum ttm_caching_state c_state, pgprot_t tmp);
++
++#if (defined(CONFIG_AGP) || (defined(CONFIG_AGP_MODULE) && defined(MODULE)))
++#define TTM_HAS_AGP
++#include <linux/agp_backend.h>
++
++/**
++ * ttm_agp_backend_init
++ *
++ * @bdev: Pointer to a struct ttm_bo_device.
++ * @bridge: The agp bridge this device is sitting on.
++ *
++ * Create a TTM backend that uses the indicated AGP bridge as an aperture
++ * for TT memory. This function uses the linux agpgart interface to
++ * bind and unbind memory backing a ttm_tt.
++ */
++extern struct ttm_backend *ttm_agp_backend_init(struct ttm_bo_device *bdev,
++                                              struct agp_bridge_data *bridge);
++#endif
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_bo_util.c b/drivers/gpu/drm/psb/ttm/ttm_bo_util.c
+new file mode 100644
+index 0000000..6c92310
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_bo_util.c
+@@ -0,0 +1,536 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2007-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellström <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include "ttm/ttm_bo_driver.h"
++#include "ttm/ttm_placement_common.h"
++#include "ttm/ttm_pat_compat.h"
++#include <linux/io.h>
++#include <linux/highmem.h>
++#include <linux/wait.h>
++#include <linux/version.h>
++
++void ttm_bo_free_old_node(struct ttm_buffer_object *bo)
++{
++      struct ttm_mem_reg *old_mem = &bo->mem;
++
++      if (old_mem->mm_node) {
++              spin_lock(&bo->bdev->lru_lock);
++              drm_mm_put_block(old_mem->mm_node);
++              spin_unlock(&bo->bdev->lru_lock);
++      }
++      old_mem->mm_node = NULL;
++}
++
++int ttm_bo_move_ttm(struct ttm_buffer_object *bo,
++                  bool evict, bool no_wait, struct ttm_mem_reg *new_mem)
++{
++      struct ttm_tt *ttm = bo->ttm;
++      struct ttm_mem_reg *old_mem = &bo->mem;
++      uint32_t save_flags = old_mem->flags;
++      uint32_t save_proposed_flags = old_mem->proposed_flags;
++      int ret;
++
++      if (old_mem->mem_type != TTM_PL_SYSTEM) {
++              ttm_tt_unbind(ttm);
++              ttm_bo_free_old_node(bo);
++              ttm_flag_masked(&old_mem->flags, TTM_PL_FLAG_SYSTEM,
++                              TTM_PL_MASK_MEM);
++              old_mem->mem_type = TTM_PL_SYSTEM;
++              save_flags = old_mem->flags;
++      }
++
++      ret = ttm_tt_set_placement_caching(ttm, new_mem->flags);
++      if (unlikely(ret != 0))
++              return ret;
++
++      if (new_mem->mem_type != TTM_PL_SYSTEM) {
++              ret = ttm_tt_bind(ttm, new_mem);
++              if (unlikely(ret != 0))
++                      return ret;
++      }
++
++      *old_mem = *new_mem;
++      new_mem->mm_node = NULL;
++      old_mem->proposed_flags = save_proposed_flags;
++      ttm_flag_masked(&save_flags, new_mem->flags, TTM_PL_MASK_MEMTYPE);
++      return 0;
++}
++
++int ttm_mem_reg_ioremap(struct ttm_bo_device *bdev, struct ttm_mem_reg *mem,
++                      void **virtual)
++{
++      struct ttm_mem_type_manager *man = &bdev->man[mem->mem_type];
++      unsigned long bus_offset;
++      unsigned long bus_size;
++      unsigned long bus_base;
++      int ret;
++      void *addr;
++
++      *virtual = NULL;
++      ret = ttm_bo_pci_offset(bdev, mem, &bus_base, &bus_offset, &bus_size);
++      if (ret || bus_size == 0)
++              return ret;
++
++      if (!(man->flags & TTM_MEMTYPE_FLAG_NEEDS_IOREMAP))
++              addr = (void *)(((u8 *) man->io_addr) + bus_offset);
++      else {
++#if  (LINUX_VERSION_CODE > KERNEL_VERSION(2,6,26))
++              if (mem->flags & TTM_PL_FLAG_WC)
++                      addr = ioremap_wc(bus_base + bus_offset, bus_size);
++              else
++                      addr = ioremap_nocache(bus_base + bus_offset, bus_size);
++#else
++              addr = ioremap_nocache(bus_base + bus_offset, bus_size);
++#endif
++              if (!addr)
++                      return -ENOMEM;
++      }
++      *virtual = addr;
++      return 0;
++}
++
++void ttm_mem_reg_iounmap(struct ttm_bo_device *bdev, struct ttm_mem_reg *mem,
++                       void *virtual)
++{
++      struct ttm_mem_type_manager *man;
++
++      man = &bdev->man[mem->mem_type];
++
++      if (virtual && (man->flags & TTM_MEMTYPE_FLAG_NEEDS_IOREMAP))
++              iounmap(virtual);
++}
++
++static int ttm_copy_io_page(void *dst, void *src, unsigned long page)
++{
++      uint32_t *dstP =
++          (uint32_t *) ((unsigned long)dst + (page << PAGE_SHIFT));
++      uint32_t *srcP =
++          (uint32_t *) ((unsigned long)src + (page << PAGE_SHIFT));
++
++      int i;
++      for (i = 0; i < PAGE_SIZE / sizeof(uint32_t); ++i)
++              iowrite32(ioread32(srcP++), dstP++);
++      return 0;
++}
++
++static int ttm_copy_io_ttm_page(struct ttm_tt *ttm, void *src,
++                              unsigned long page)
++{
++      struct page *d = ttm_tt_get_page(ttm, page);
++      void *dst;
++
++      if (!d)
++              return -ENOMEM;
++
++      src = (void *)((unsigned long)src + (page << PAGE_SHIFT));
++      dst = kmap(d);
++      if (!dst)
++              return -ENOMEM;
++
++      memcpy_fromio(dst, src, PAGE_SIZE);
++      kunmap(d);
++      return 0;
++}
++
++static int ttm_copy_ttm_io_page(struct ttm_tt *ttm, void *dst,
++                              unsigned long page)
++{
++      struct page *s = ttm_tt_get_page(ttm, page);
++      void *src;
++
++      if (!s)
++              return -ENOMEM;
++
++      dst = (void *)((unsigned long)dst + (page << PAGE_SHIFT));
++      src = kmap(s);
++      if (!src)
++              return -ENOMEM;
++
++      memcpy_toio(dst, src, PAGE_SIZE);
++      kunmap(s);
++      return 0;
++}
++
++int ttm_bo_move_memcpy(struct ttm_buffer_object *bo,
++                     bool evict, bool no_wait, struct ttm_mem_reg *new_mem)
++{
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_mem_type_manager *man = &bdev->man[new_mem->mem_type];
++      struct ttm_tt *ttm = bo->ttm;
++      struct ttm_mem_reg *old_mem = &bo->mem;
++      struct ttm_mem_reg old_copy = *old_mem;
++      void *old_iomap;
++      void *new_iomap;
++      int ret;
++      uint32_t save_flags = old_mem->flags;
++      uint32_t save_proposed_flags = old_mem->proposed_flags;
++      unsigned long i;
++      unsigned long page;
++      unsigned long add = 0;
++      int dir;
++
++      ret = ttm_mem_reg_ioremap(bdev, old_mem, &old_iomap);
++      if (ret)
++              return ret;
++      ret = ttm_mem_reg_ioremap(bdev, new_mem, &new_iomap);
++      if (ret)
++              goto out;
++
++      if (old_iomap == NULL && new_iomap == NULL)
++              goto out2;
++      if (old_iomap == NULL && ttm == NULL)
++              goto out2;
++
++      add = 0;
++      dir = 1;
++
++      if ((old_mem->mem_type == new_mem->mem_type) &&
++          (new_mem->mm_node->start <
++           old_mem->mm_node->start + old_mem->mm_node->size)) {
++              dir = -1;
++              add = new_mem->num_pages - 1;
++      }
++
++      for (i = 0; i < new_mem->num_pages; ++i) {
++              page = i * dir + add;
++              if (old_iomap == NULL)
++                      ret = ttm_copy_ttm_io_page(ttm, new_iomap, page);
++              else if (new_iomap == NULL)
++                      ret = ttm_copy_io_ttm_page(ttm, old_iomap, page);
++              else
++                      ret = ttm_copy_io_page(new_iomap, old_iomap, page);
++              if (ret)
++                      goto out1;
++      }
++      mb();
++      out2:
++      ttm_bo_free_old_node(bo);
++
++      *old_mem = *new_mem;
++      new_mem->mm_node = NULL;
++      old_mem->proposed_flags = save_proposed_flags;
++      ttm_flag_masked(&save_flags, new_mem->flags, TTM_PL_MASK_MEMTYPE);
++
++      if ((man->flags & TTM_MEMTYPE_FLAG_FIXED) && (ttm != NULL)) {
++              ttm_tt_unbind(ttm);
++              ttm_tt_destroy(ttm);
++              bo->ttm = NULL;
++      }
++
++      out1:
++      ttm_mem_reg_iounmap(bdev, new_mem, new_iomap);
++      out:
++      ttm_mem_reg_iounmap(bdev, &old_copy, old_iomap);
++      return ret;
++}
++
++/**
++ * ttm_buffer_object_transfer
++ *
++ * @bo: A pointer to a struct ttm_buffer_object.
++ * @new_obj: A pointer to a pointer to a newly created ttm_buffer_object,
++ * holding the data of @bo with the old placement.
++ *
++ * This is a utility function that may be called after an accelerated move
++ * has been scheduled. A new buffer object is created as a placeholder for
++ * the old data while it's being copied. When that buffer object is idle,
++ * it can be destroyed, releasing the space of the old placement.
++ * Returns:
++ * !0: Failure.
++ */
++
++static int ttm_buffer_object_transfer(struct ttm_buffer_object *bo,
++                                    struct ttm_buffer_object **new_obj)
++{
++      struct ttm_buffer_object *fbo;
++      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_bo_driver *driver = bdev->driver;
++
++      fbo = kzalloc(sizeof(*fbo), GFP_KERNEL);
++      if (!fbo)
++              return -ENOMEM;
++
++      *fbo = *bo;
++      mutex_init(&fbo->mutex);
++      mutex_lock(&fbo->mutex);
++
++      init_waitqueue_head(&fbo->event_queue);
++      INIT_LIST_HEAD(&fbo->ddestroy);
++      INIT_LIST_HEAD(&fbo->lru);
++
++      fbo->sync_obj = driver->sync_obj_ref(bo->sync_obj);
++      if (fbo->mem.mm_node)
++              fbo->mem.mm_node->private = (void *)fbo;
++      kref_init(&fbo->list_kref);
++      kref_init(&fbo->kref);
++
++      mutex_unlock(&fbo->mutex);
++
++      *new_obj = fbo;
++      return 0;
++}
++
++pgprot_t ttm_io_prot(uint32_t caching_flags, pgprot_t tmp)
++{
++#if defined(__i386__) || defined(__x86_64__)
++      if (caching_flags & TTM_PL_FLAG_WC) {
++              tmp = pgprot_ttm_x86_wc(tmp);
++      } else if (boot_cpu_data.x86 > 3 &&
++              (caching_flags & TTM_PL_FLAG_UNCACHED)) {
++              tmp = pgprot_noncached(tmp);
++      }
++#elif defined(__powerpc__)
++      if (!(caching_flags & TTM_PL_FLAG_CACHED)) {
++              pgprot_val(tmp) |= _PAGE_NO_CACHE;
++              if (caching_flags & TTM_PL_FLAG_UNCACHED)
++                      pgprot_val(tmp) |= _PAGE_GUARDED;
++      }
++#endif
++#if defined(__ia64__)
++      if (caching_flags & TTM_PL_FLAG_WC)
++              tmp = pgprot_writecombine(tmp);
++      else
++              tmp = pgprot_noncached(tmp);
++#endif
++#if defined(__sparc__)
++      if (!(caching_flags & TTM_PL_FLAG_CACHED))
++              tmp = pgprot_noncached(tmp);
++#endif
++      return tmp;
++}
++
++static int ttm_bo_ioremap(struct ttm_buffer_object *bo,
++                        unsigned long bus_base,
++                        unsigned long bus_offset,
++                        unsigned long bus_size,
++                        struct ttm_bo_kmap_obj *map)
++{
++      struct ttm_bo_device * bdev = bo->bdev;
++      struct ttm_mem_reg * mem = &bo->mem;
++      struct ttm_mem_type_manager * man = &bdev->man[mem->mem_type];
++
++      if (!(man->flags & TTM_MEMTYPE_FLAG_NEEDS_IOREMAP)) {
++              map->bo_kmap_type = ttm_bo_map_premapped;
++              map->virtual = (void *)(((u8 *) man->io_addr) + bus_offset);} else {
++                      map->bo_kmap_type = ttm_bo_map_iomap;
++#if  (LINUX_VERSION_CODE > KERNEL_VERSION(2,6,26))
++                      if (mem->flags & TTM_PL_FLAG_WC)
++                              map->virtual = ioremap_wc(bus_base + bus_offset, bus_size);
++                      else
++                              map->virtual = ioremap_nocache(bus_base + bus_offset, bus_size);
++#else
++                      map->virtual = ioremap_nocache(bus_base + bus_offset, bus_size);
++#endif
++              }
++              return (!map->virtual) ? -ENOMEM : 0;
++}
++
++static int ttm_bo_kmap_ttm(struct ttm_buffer_object *bo,
++                         unsigned long start_page,
++                         unsigned long num_pages,
++                         struct ttm_bo_kmap_obj *map)
++{
++      struct ttm_mem_reg * mem = &bo->mem; pgprot_t prot;
++      struct ttm_tt * ttm = bo->ttm;
++      struct page * d;
++      bool do_kmap = false;
++      int i;
++      BUG_ON(!ttm);
++      if (num_pages == 1) {
++              map->page = ttm_tt_get_page(ttm, start_page);
++              do_kmap = (!PageHighMem(map->page) ||
++                      (mem->flags & TTM_PL_FLAG_CACHED));
++      }
++      
++      if (do_kmap) {
++          /*
++           * We're mapping a single page, and the desired
++           * page protection is consistent with the bo.
++           */
++              map->bo_kmap_type = ttm_bo_map_kmap;
++              map->virtual = kmap(map->page);
++      } else {
++          /*
++           * Populate the part we're mapping;
++           */
++              for (i = start_page; i < start_page + num_pages; ++i) {
++                      d = ttm_tt_get_page(ttm, i); if (!d)
++                              return -ENOMEM;
++              }
++
++              /*
++               * We need to use vmap to get the desired page protection
++               * or to make the buffer object look contigous.
++               */
++              prot = (mem->flags & TTM_PL_FLAG_CACHED) ?
++                      PAGE_KERNEL :
++                      ttm_io_prot(mem->flags, PAGE_KERNEL);
++              map->bo_kmap_type = ttm_bo_map_vmap;
++              map->virtual = vmap(ttm->pages + start_page, num_pages, 0, prot);
++      }
++      return (!map->virtual) ? -ENOMEM : 0;
++}
++
++int ttm_bo_kmap(struct ttm_buffer_object *bo,
++              unsigned long start_page, unsigned long num_pages,
++              struct ttm_bo_kmap_obj *map)
++{
++          int ret;
++          unsigned long bus_base;
++          unsigned long bus_offset;
++          unsigned long bus_size;
++          BUG_ON(!list_empty(&bo->swap));
++          map->virtual = NULL;
++          if (num_pages > bo->num_pages)
++                  return -EINVAL;
++          if (start_page > bo->num_pages)
++                  return -EINVAL;
++#if 0
++          if (num_pages > 1 && !DRM_SUSER(DRM_CURPROC))
++          return -EPERM;
++#endif
++          ret = ttm_bo_pci_offset(bo->bdev, &bo->mem, &bus_base,
++                                  &bus_offset, &bus_size);
++          if (ret)
++                  return ret;
++          if (bus_size == 0) {
++                  return ttm_bo_kmap_ttm(bo, start_page, num_pages, map);
++          } else {
++                  bus_offset += start_page << PAGE_SHIFT;
++                  bus_size = num_pages << PAGE_SHIFT;
++                  return ttm_bo_ioremap(bo, bus_base, bus_offset, bus_size, map);
++          }
++}
++
++void ttm_bo_kunmap(struct ttm_bo_kmap_obj *map)
++{
++      if (!map->virtual)
++              return;
++      switch (map->bo_kmap_type) {
++      case ttm_bo_map_iomap:
++              iounmap(map->virtual);
++              break;
++      case ttm_bo_map_vmap:
++              vunmap(map->virtual);
++              break;
++      case ttm_bo_map_kmap:
++              kunmap(map->page);
++              break;
++      case ttm_bo_map_premapped:
++              break;
++      default:
++              BUG();
++      }
++      map->virtual = NULL;
++      map->page = NULL;
++}
++
++int ttm_bo_pfn_prot(struct ttm_buffer_object *bo,
++                  unsigned long dst_offset,
++                  unsigned long *pfn, pgprot_t * prot)
++{
++      struct ttm_mem_reg * mem = &bo->mem;
++      struct ttm_bo_device * bdev = bo->bdev;
++      unsigned long bus_offset;
++      unsigned long bus_size;
++      unsigned long bus_base;
++      int ret;
++      ret = ttm_bo_pci_offset(bdev, mem, &bus_base, &bus_offset,
++                      &bus_size);
++      if (ret)
++              return -EINVAL;
++      if (bus_size != 0)
++              * pfn = (bus_base + bus_offset + dst_offset) >> PAGE_SHIFT;
++      else
++              if (!bo->ttm)
++                      return -EINVAL;
++              else
++                      *pfn =
++                              page_to_pfn(ttm_tt_get_page(bo->ttm, dst_offset >> PAGE_SHIFT));
++      *prot =
++              (mem->flags & TTM_PL_FLAG_CACHED) ? PAGE_KERNEL : ttm_io_prot(mem->
++                              flags,
++                              PAGE_KERNEL);
++      return 0;
++}
++
++int ttm_bo_move_accel_cleanup(struct ttm_buffer_object *bo,
++                            void *sync_obj,
++                            void *sync_obj_arg,
++                            bool evict, bool no_wait,
++                            struct ttm_mem_reg *new_mem)
++{
++      struct ttm_bo_device * bdev = bo->bdev;
++      struct ttm_bo_driver * driver = bdev->driver;
++      struct ttm_mem_type_manager * man = &bdev->man[new_mem->mem_type];
++      struct ttm_mem_reg * old_mem = &bo->mem;
++      int ret;
++      uint32_t save_flags = old_mem->flags;
++      uint32_t save_proposed_flags = old_mem->proposed_flags;
++      struct ttm_buffer_object * old_obj;
++      if (bo->sync_obj)
++              driver->sync_obj_unref(&bo->sync_obj);
++      bo->sync_obj = driver->sync_obj_ref(sync_obj);
++      bo->sync_obj_arg = sync_obj_arg;
++      if (evict) {
++              ret = ttm_bo_wait(bo, false, false, false);
++              if (ret)
++                      return ret;
++              ttm_bo_free_old_node(bo);
++              if ((man->flags & TTM_MEMTYPE_FLAG_FIXED) && (bo->ttm != NULL)) {
++                      ttm_tt_unbind(bo->ttm); ttm_tt_destroy(bo->ttm); bo->ttm = NULL;
++              }
++      } else {
++
++              /* This should help pipeline ordinary buffer moves.
++               *
++               * Hang old buffer memory on a new buffer object,
++               * and leave it to be released when the GPU
++               * operation has completed.
++               */
++              ret = ttm_buffer_object_transfer(bo, &old_obj);
++              if (ret)
++                      return ret;
++              if (!(man->flags & TTM_MEMTYPE_FLAG_FIXED))
++                      old_obj->ttm = NULL;
++              else
++                      bo->ttm = NULL;
++              bo->priv_flags |= TTM_BO_PRIV_FLAG_MOVING;
++              ttm_bo_unreserve(old_obj);
++      }
++
++      *old_mem = *new_mem;
++      new_mem->mm_node = NULL;
++      old_mem->proposed_flags = save_proposed_flags;
++      ttm_flag_masked(&save_flags, new_mem->flags, TTM_PL_MASK_MEMTYPE);
++      return 0;
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_bo_vm.c b/drivers/gpu/drm/psb/ttm/ttm_bo_vm.c
+new file mode 100644
+index 0000000..4d950fc
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_bo_vm.c
+@@ -0,0 +1,596 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++
++#include "ttm/ttm_bo_driver.h"
++#include "ttm/ttm_placement_common.h"
++#include <linux/mm.h>
++#include <linux/version.h>
++#include <linux/rbtree.h>
++#include <asm/uaccess.h>
++
++#if (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,25))
++#error "TTM doesn't build on kernel versions below 2.6.25."
++#endif
++
++#define TTM_BO_VM_NUM_PREFAULT 16
++
++static struct ttm_buffer_object *ttm_bo_vm_lookup_rb(struct ttm_bo_device *bdev,
++                                                   unsigned long page_start,
++                                                   unsigned long num_pages)
++{
++      struct rb_node *cur = bdev->addr_space_rb.rb_node;
++      unsigned long cur_offset;
++      struct ttm_buffer_object *bo;
++      struct ttm_buffer_object *best_bo = NULL;
++
++      while (likely(cur != NULL)) {
++              bo = rb_entry(cur, struct ttm_buffer_object, vm_rb);
++              cur_offset = bo->vm_node->start;
++              if (page_start >= cur_offset) {
++                      cur = cur->rb_right;
++                      best_bo = bo;
++                      if (page_start == cur_offset)
++                              break;
++              } else
++                      cur = cur->rb_left;
++      }
++
++      if (unlikely(best_bo == NULL))
++              return NULL;
++
++      if (unlikely((best_bo->vm_node->start + best_bo->num_pages) <
++                   (page_start + num_pages)))
++              return NULL;
++
++      return best_bo;
++}
++
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,26))
++static int ttm_bo_vm_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
++{
++      struct ttm_buffer_object *bo = (struct ttm_buffer_object *)
++          vma->vm_private_data;
++      struct ttm_bo_device *bdev = bo->bdev;
++      unsigned long bus_base;
++      unsigned long bus_offset;
++      unsigned long bus_size;
++      unsigned long page_offset;
++      unsigned long page_last;
++      unsigned long pfn;
++      struct ttm_tt *ttm = NULL;
++      struct page *page;
++      int ret;
++      int i;
++      bool is_iomem;
++      unsigned long address = (unsigned long)vmf->virtual_address;
++      int retval = VM_FAULT_NOPAGE;
++
++      ret = ttm_bo_reserve(bo, true, false, false, 0);
++      if (unlikely(ret != 0))
++              return VM_FAULT_NOPAGE;
++
++      mutex_lock(&bo->mutex);
++
++      /*
++       * Wait for buffer data in transit, due to a pipelined
++       * move.
++       */
++
++      if (bo->priv_flags & TTM_BO_PRIV_FLAG_MOVING) {
++              ret = ttm_bo_wait(bo, false, true, false);
++              if (unlikely(ret != 0)) {
++                      retval = (ret != -ERESTART) ?
++                          VM_FAULT_SIGBUS : VM_FAULT_NOPAGE;
++                      goto out_unlock;
++              }
++      }
++
++      ret = ttm_bo_pci_offset(bdev, &bo->mem, &bus_base, &bus_offset,
++                              &bus_size);
++      if (unlikely(ret != 0)) {
++              retval = VM_FAULT_SIGBUS;
++              goto out_unlock;
++      }
++
++      is_iomem = (bus_size != 0);
++
++      page_offset = ((address - vma->vm_start) >> PAGE_SHIFT) +
++          bo->vm_node->start - vma->vm_pgoff;
++      page_last = ((vma->vm_end - vma->vm_start) >> PAGE_SHIFT) +
++          bo->vm_node->start - vma->vm_pgoff;
++
++      if (unlikely(page_offset >= bo->num_pages)) {
++              retval = VM_FAULT_SIGBUS;
++              goto out_unlock;
++      }
++
++      /*
++       * Strictly, we're not allowed to modify vma->vm_page_prot here,
++       * since the mmap_sem is only held in read mode. However, we
++       * modify only the caching bits of vma->vm_page_prot and
++       * consider those bits protected by
++       * the bo->mutex, as we should be the only writers.
++       * There shouldn't really be any readers of these bits except
++       * within vm_insert_mixed()? fork?
++       *
++       * TODO: Add a list of vmas to the bo, and change the
++       * vma->vm_page_prot when the object changes caching policy, with
++       * the correct locks held.
++       */
++
++      if (is_iomem) {
++              vma->vm_page_prot = ttm_io_prot(bo->mem.flags,
++                                              vma->vm_page_prot);
++      } else {
++              ttm = bo->ttm;
++              vma->vm_page_prot = (bo->mem.flags & TTM_PL_FLAG_CACHED) ?
++                  vm_get_page_prot(vma->vm_flags) :
++                  ttm_io_prot(bo->mem.flags, vma->vm_page_prot);
++      }
++
++      /*
++       * Speculatively prefault a number of pages. Only error on
++       * first page.
++       */
++
++      for (i = 0; i < TTM_BO_VM_NUM_PREFAULT; ++i) {
++
++              if (is_iomem)
++                      pfn = ((bus_base + bus_offset) >> PAGE_SHIFT) +
++                          page_offset;
++              else {
++                      page = ttm_tt_get_page(ttm, page_offset);
++                      if (unlikely(!page && i == 0)) {
++                              retval = VM_FAULT_OOM;
++                              goto out_unlock;
++                      } else if (unlikely(!page)) {
++                              break;
++                      }
++                      pfn = page_to_pfn(page);
++              }
++
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,29))
++              ret = vm_insert_mixed(vma, address, pfn);
++#else
++              ret = vm_insert_pfn(vma, address, pfn);
++#endif
++              /*
++               * Somebody beat us to this PTE or prefaulting to
++               * an already populated PTE, or prefaulting error.
++               */
++
++              if (unlikely((ret == -EBUSY) || (ret != 0 && i > 0)))
++                      break;
++              else if (unlikely(ret != 0)) {
++                      retval =
++                          (ret == -ENOMEM) ? VM_FAULT_OOM : VM_FAULT_SIGBUS;
++                      goto out_unlock;
++
++              }
++
++              address += PAGE_SIZE;
++              if (unlikely(++page_offset >= page_last))
++                      break;
++      }
++
++      out_unlock:
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unreserve(bo);
++      return retval;
++}
++
++#else
++
++static unsigned long ttm_bo_vm_nopfn(struct vm_area_struct *vma,
++                                   unsigned long address)
++{
++      struct ttm_buffer_object *bo = (struct ttm_buffer_object *)
++          vma->vm_private_data;
++      struct ttm_bo_device *bdev = bo->bdev;
++      unsigned long bus_base;
++      unsigned long bus_offset;
++      unsigned long bus_size;
++      unsigned long page_offset;
++      unsigned long page_last;
++      unsigned long pfn;
++      struct ttm_tt *ttm = NULL;
++      struct page *page;
++      int ret;
++      int i;
++      bool is_iomem;
++      unsigned long retval = NOPFN_REFAULT;
++
++      ret = ttm_bo_reserve(bo, true, false, false, 0);
++      if (unlikely(ret != 0))
++              return NOPFN_REFAULT;
++
++      mutex_lock(&bo->mutex);
++
++      /*
++       * Wait for buffer data in transit, due to a pipelined
++       * move.
++       */
++
++      if (bo->priv_flags & TTM_BO_PRIV_FLAG_MOVING) {
++              ret = ttm_bo_wait(bo, false, true, false);
++              if (unlikely(ret != 0)) {
++                      retval = (ret != -ERESTART) ?
++                          NOPFN_SIGBUS : NOPFN_REFAULT;
++                      goto out_unlock;
++              }
++      }
++
++      ret = ttm_bo_pci_offset(bdev, &bo->mem, &bus_base, &bus_offset,
++                              &bus_size);
++      if (unlikely(ret != 0)) {
++              printk(KERN_ERR "Attempted buffer object access "
++                     "of unmappable object.\n");
++              retval = NOPFN_SIGBUS;
++              goto out_unlock;
++      }
++
++      is_iomem = (bus_size != 0);
++
++      page_offset = ((address - vma->vm_start) >> PAGE_SHIFT) +
++          bo->vm_node->start - vma->vm_pgoff;
++
++      page_last = ((vma->vm_end - vma->vm_start) >> PAGE_SHIFT) +
++          bo->vm_node->start - vma->vm_pgoff;
++
++      if (unlikely(page_offset >= bo->num_pages)) {
++              printk(KERN_ERR "Attempted buffer object access "
++                     "outside object.\n");
++              retval = NOPFN_SIGBUS;
++              goto out_unlock;
++      }
++
++      /*
++       * Strictly, we're not allowed to modify vma->vm_page_prot here,
++       * since the mmap_sem is only held in read mode. However, we
++       * modify only the caching bits of vma->vm_page_prot and
++       * consider those bits protected by
++       * the bo->mutex, as we should be the only writers.
++       * There shouldn't really be any readers of these bits except
++       * within vm_insert_mixed()? fork?
++       *
++       * TODO: Add a list of vmas to the bo, and change the
++       * vma->vm_page_prot when the object changes caching policy, with
++       * the correct locks held.
++       */
++
++      if (is_iomem) {
++              vma->vm_page_prot = ttm_io_prot(bo->mem.flags,
++                                              vma->vm_page_prot);
++      } else {
++              ttm = bo->ttm;
++              vma->vm_page_prot = (bo->mem.flags & TTM_PL_FLAG_CACHED) ?
++                  vm_get_page_prot(vma->vm_flags) :
++                  ttm_io_prot(bo->mem.flags, vma->vm_page_prot);
++      }
++
++      /*
++       * Speculatively prefault a number of pages. Only error on
++       * first page.
++       */
++
++      for (i = 0; i < TTM_BO_VM_NUM_PREFAULT; ++i) {
++
++              if (is_iomem)
++                      pfn = ((bus_base + bus_offset) >> PAGE_SHIFT) +
++                          page_offset;
++              else {
++                      page = ttm_tt_get_page(ttm, page_offset);
++                      if (unlikely(!page && i == 0)) {
++                              retval = NOPFN_OOM;
++                              goto out_unlock;
++                      } else if (unlikely(!page)) {
++                              break;
++                      }
++                      pfn = page_to_pfn(page);
++              }
++
++              ret = vm_insert_pfn(vma, address, pfn);
++              if (unlikely(ret == -EBUSY || (ret != 0 && i != 0)))
++                      break;
++
++              /*
++               * Somebody beat us to this PTE or prefaulting to
++               * an already populated PTE, or prefaulting error.
++               */
++
++              if (unlikely((ret == -EBUSY) || (ret != 0 && i > 0)))
++                      break;
++              else if (unlikely(ret != 0)) {
++                      retval =
++                          (ret == -ENOMEM) ? VM_FAULT_OOM : VM_FAULT_SIGBUS;
++                      goto out_unlock;
++              }
++
++              address += PAGE_SIZE;
++              if (unlikely(++page_offset >= page_last))
++                      break;
++      }
++
++      out_unlock:
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unreserve(bo);
++      return retval;
++}
++#endif
++
++static void ttm_bo_vm_open(struct vm_area_struct *vma)
++{
++      struct ttm_buffer_object *bo =
++          (struct ttm_buffer_object *)vma->vm_private_data;
++
++      (void)ttm_bo_reference(bo);
++}
++
++static void ttm_bo_vm_close(struct vm_area_struct *vma)
++{
++      struct ttm_buffer_object *bo =
++          (struct ttm_buffer_object *)vma->vm_private_data;
++
++      ttm_bo_unref(&bo);
++      vma->vm_private_data = NULL;
++}
++
++static struct vm_operations_struct ttm_bo_vm_ops = {
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,26))
++      .fault = ttm_bo_vm_fault,
++#else
++      .nopfn = ttm_bo_vm_nopfn,
++#endif
++      .open = ttm_bo_vm_open,
++      .close = ttm_bo_vm_close
++};
++
++int ttm_bo_mmap(struct file *filp, struct vm_area_struct *vma,
++              struct ttm_bo_device *bdev)
++{
++      struct ttm_bo_driver *driver;
++      struct ttm_buffer_object *bo;
++      int ret;
++
++      read_lock(&bdev->vm_lock);
++      bo = ttm_bo_vm_lookup_rb(bdev, vma->vm_pgoff,
++                               (vma->vm_end - vma->vm_start) >> PAGE_SHIFT);
++      if (likely(bo != NULL))
++              ttm_bo_reference(bo);
++      read_unlock(&bdev->vm_lock);
++
++      if (unlikely(bo == NULL)) {
++              printk(KERN_ERR "Could not find buffer object to map.\n");
++              ret = -EINVAL;
++              goto out_unref;
++      }
++
++      driver = bo->bdev->driver;
++      if (unlikely(!driver->verify_access)) {
++              ret = -EPERM;
++              goto out_unref;
++      }
++      ret = driver->verify_access(bo, filp);
++      if (unlikely(ret != 0))
++              goto out_unref;
++
++      vma->vm_ops = &ttm_bo_vm_ops;
++
++      /*
++       * Note: We're transferring the bo reference to
++       * vma->vm_private_data here.
++       */
++
++      vma->vm_private_data = bo;
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,29))
++      vma->vm_flags |= VM_RESERVED | VM_IO | VM_MIXEDMAP | VM_DONTEXPAND;
++#else
++      vma->vm_flags |= VM_RESERVED | VM_IO | VM_PFNMAP | VM_DONTEXPAND;
++#endif
++      return 0;
++      out_unref:
++      ttm_bo_unref(&bo);
++      return ret;
++}
++
++int ttm_fbdev_mmap(struct vm_area_struct *vma, struct ttm_buffer_object *bo)
++{
++      if (vma->vm_pgoff != 0)
++              return -EACCES;
++
++      vma->vm_ops = &ttm_bo_vm_ops;
++      vma->vm_private_data = ttm_bo_reference(bo);
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,29))
++      vma->vm_flags |= VM_RESERVED | VM_IO | VM_MIXEDMAP | VM_DONTEXPAND;
++#else
++      vma->vm_flags |= VM_RESERVED | VM_IO | VM_PFNMAP | VM_DONTEXPAND;
++#endif
++      return 0;
++}
++
++ssize_t ttm_bo_io(struct ttm_bo_device * bdev, struct file * filp,
++                const char __user * wbuf, char __user * rbuf, size_t count,
++                loff_t * f_pos, bool write)
++{
++      struct ttm_buffer_object *bo;
++      struct ttm_bo_driver *driver;
++      struct ttm_bo_kmap_obj map;
++      unsigned long dev_offset = (*f_pos >> PAGE_SHIFT);
++      unsigned long kmap_offset;
++      unsigned long kmap_end;
++      unsigned long kmap_num;
++      size_t io_size;
++      unsigned int page_offset;
++      char *virtual;
++      int ret;
++      bool no_wait = false;
++      bool dummy;
++
++      read_lock(&bdev->vm_lock);
++      bo = ttm_bo_vm_lookup_rb(bdev, dev_offset, 1);
++      if (likely(bo != NULL))
++              ttm_bo_reference(bo);
++      read_unlock(&bdev->vm_lock);
++
++      if (unlikely(bo == NULL))
++              return -EFAULT;
++
++      driver = bo->bdev->driver;
++      if (unlikely(driver->verify_access))
++              return -EPERM;
++
++      ret = driver->verify_access(bo, filp);
++      if (unlikely(ret != 0))
++              goto out_unref;
++
++      kmap_offset = dev_offset - bo->vm_node->start;
++      if (unlikely(kmap_offset) >= bo->num_pages) {
++              ret = -EFBIG;
++              goto out_unref;
++      }
++
++      page_offset = *f_pos & ~PAGE_MASK;
++      io_size = bo->num_pages - kmap_offset;
++      io_size = (io_size << PAGE_SHIFT) - page_offset;
++      if (count < io_size)
++              io_size = count;
++
++      kmap_end = (*f_pos + count - 1) >> PAGE_SHIFT;
++      kmap_num = kmap_end - kmap_offset + 1;
++
++      ret = ttm_bo_reserve(bo, true, no_wait, false, 0);
++
++      switch (ret) {
++      case 0:
++              break;
++      case -ERESTART:
++              ret = -EINTR;
++              goto out_unref;
++      case -EBUSY:
++              ret = -EAGAIN;
++              goto out_unref;
++      default:
++              goto out_unref;
++      }
++
++      ret = ttm_bo_kmap(bo, kmap_offset, kmap_num, &map);
++      if (unlikely(ret != 0))
++              goto out_unref;
++
++      virtual = ttm_kmap_obj_virtual(&map, &dummy);
++      virtual += page_offset;
++
++      if (write)
++              ret = copy_from_user(virtual, wbuf, io_size);
++      else
++              ret = copy_to_user(rbuf, virtual, io_size);
++
++      ttm_bo_kunmap(&map);
++      ttm_bo_unreserve(bo);
++      ttm_bo_unref(&bo);
++
++      if (unlikely(ret != 0))
++              return -EFBIG;
++
++      *f_pos += io_size;
++
++      return io_size;
++      out_unref:
++      ttm_bo_unref(&bo);
++      return ret;
++}
++
++ssize_t ttm_bo_fbdev_io(struct ttm_buffer_object * bo, const char __user * wbuf,
++                      char __user * rbuf, size_t count, loff_t * f_pos,
++                      bool write)
++{
++      struct ttm_bo_kmap_obj map;
++      unsigned long kmap_offset;
++      unsigned long kmap_end;
++      unsigned long kmap_num;
++      size_t io_size;
++      unsigned int page_offset;
++      char *virtual;
++      int ret;
++      bool no_wait = false;
++      bool dummy;
++
++      kmap_offset = (*f_pos >> PAGE_SHIFT);
++      if (unlikely(kmap_offset) >= bo->num_pages)
++              return -EFBIG;
++
++      page_offset = *f_pos & ~PAGE_MASK;
++      io_size = bo->num_pages - kmap_offset;
++      io_size = (io_size << PAGE_SHIFT) - page_offset;
++      if (count < io_size)
++              io_size = count;
++
++      kmap_end = (*f_pos + count - 1) >> PAGE_SHIFT;
++      kmap_num = kmap_end - kmap_offset + 1;
++
++      ret = ttm_bo_reserve(bo, true, no_wait, false, 0);
++
++      switch (ret) {
++      case 0:
++              break;
++      case -ERESTART:
++              return -EINTR;
++      case -EBUSY:
++              return -EAGAIN;
++      default:
++              return ret;
++      }
++
++      ret = ttm_bo_kmap(bo, kmap_offset, kmap_num, &map);
++      if (unlikely(ret != 0))
++              return ret;
++
++      virtual = ttm_kmap_obj_virtual(&map, &dummy);
++      virtual += page_offset;
++
++      if (write)
++              ret = copy_from_user(virtual, wbuf, io_size);
++      else
++              ret = copy_to_user(rbuf, virtual, io_size);
++
++      ttm_bo_kunmap(&map);
++      ttm_bo_unreserve(bo);
++      ttm_bo_unref(&bo);
++
++      if (unlikely(ret != 0))
++              return ret;
++
++      *f_pos += io_size;
++
++      return io_size;
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_execbuf_util.c b/drivers/gpu/drm/psb/ttm/ttm_execbuf_util.c
+new file mode 100644
+index 0000000..4a34c18
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_execbuf_util.c
+@@ -0,0 +1,115 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++#include "ttm/ttm_execbuf_util.h"
++#include "ttm/ttm_bo_driver.h"
++#include "ttm/ttm_placement_common.h"
++#include <linux/wait.h>
++#include <linux/sched.h>
++
++void ttm_eu_backoff_reservation(struct list_head *list)
++{
++      struct ttm_validate_buffer *entry;
++
++      list_for_each_entry(entry, list, head) {
++              struct ttm_buffer_object *bo = entry->bo;
++              if (!entry->reserved)
++                      continue;
++
++              entry->reserved = false;
++              ttm_bo_unreserve(bo);
++      }
++}
++
++/*
++ * Reserve buffers for validation.
++ *
++ * If a buffer in the list is marked for CPU access, we back off and
++ * wait for that buffer to become free for GPU access.
++ *
++ * If a buffer is reserved for another validation, the validator with
++ * the highest validation sequence backs off and waits for that buffer
++ * to become unreserved. This prevents deadlocks when validating multiple
++ * buffers in different orders.
++ */
++
++int ttm_eu_reserve_buffers(struct list_head *list, uint32_t val_seq)
++{
++      struct ttm_validate_buffer *entry;
++      int ret;
++
++      retry:
++      list_for_each_entry(entry, list, head) {
++              struct ttm_buffer_object *bo = entry->bo;
++
++              entry->reserved = false;
++              ret = ttm_bo_reserve(bo, true, false, true, val_seq);
++              if (ret != 0) {
++                      ttm_eu_backoff_reservation(list);
++                      if (ret == -EAGAIN) {
++                              ret = ttm_bo_wait_unreserved(bo, true);
++                              if (unlikely(ret != 0))
++                                      return ret;
++                              goto retry;
++                      } else
++                              return ret;
++              }
++
++              entry->reserved = true;
++              if (unlikely(atomic_read(&bo->cpu_writers) > 0)) {
++                      ttm_eu_backoff_reservation(list);
++                      ret = ttm_bo_wait_cpu(bo, false);
++                      if (ret)
++                              return ret;
++                      goto retry;
++              }
++      }
++      return 0;
++}
++
++void ttm_eu_fence_buffer_objects(struct list_head *list, void *sync_obj)
++{
++      struct ttm_validate_buffer *entry;
++
++      list_for_each_entry(entry, list, head) {
++              struct ttm_buffer_object *bo = entry->bo;
++              struct ttm_bo_driver *driver = bo->bdev->driver;
++              void *old_sync_obj;
++
++              mutex_lock(&bo->mutex);
++              old_sync_obj = bo->sync_obj;
++              bo->sync_obj = driver->sync_obj_ref(sync_obj);
++              bo->sync_obj_arg = entry->new_sync_obj_arg;
++              mutex_unlock(&bo->mutex);
++              ttm_bo_unreserve(bo);
++              entry->reserved = false;
++              if (old_sync_obj)
++                      driver->sync_obj_unref(&old_sync_obj);
++      }
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_execbuf_util.h b/drivers/gpu/drm/psb/ttm/ttm_execbuf_util.h
+new file mode 100644
+index 0000000..6577f63
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_execbuf_util.h
+@@ -0,0 +1,110 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#ifndef _TTM_EXECBUF_UTIL_H_
++#define _TTM_EXECBUF_UTIL_H_
++
++#include "ttm/ttm_bo_api.h"
++#include "ttm/ttm_fence_api.h"
++#include <linux/list.h>
++
++/**
++ * struct ttm_validate_buffer
++ *
++ * @head:           list head for thread-private list.
++ * @bo:             refcounted buffer object pointer.
++ * @new_sync_obj_arg: New sync_obj_arg for @bo, to be used once
++ * adding a new sync object.
++ * @reservied:      Indicates whether @bo has been reserved for validation.
++ */
++
++struct ttm_validate_buffer {
++      struct list_head head;
++      struct ttm_buffer_object *bo;
++      void *new_sync_obj_arg;
++      bool reserved;
++};
++
++/**
++ * function ttm_eu_backoff_reservation
++ *
++ * @list:     thread private list of ttm_validate_buffer structs.
++ *
++ * Undoes all buffer validation reservations for bos pointed to by
++ * the list entries.
++ */
++
++extern void ttm_eu_backoff_reservation(struct list_head *list);
++
++/**
++ * function ttm_eu_reserve_buffers
++ *
++ * @list:    thread private list of ttm_validate_buffer structs.
++ * @val_seq: A unique sequence number.
++ *
++ * Tries to reserve bos pointed to by the list entries for validation.
++ * If the function returns 0, all buffers are marked as "unfenced",
++ * taken off the lru lists and are not synced for write CPU usage.
++ *
++ * If the function detects a deadlock due to multiple threads trying to
++ * reserve the same buffers in reverse order, all threads except one will
++ * back off and retry. This function may sleep while waiting for
++ * CPU write reservations to be cleared, and for other threads to
++ * unreserve their buffers.
++ *
++ * This function may return -ERESTART or -EAGAIN if the calling process
++ * receives a signal while waiting. In that case, no buffers on the list
++ * will be reserved upon return.
++ *
++ * Buffers reserved by this function should be unreserved by
++ * a call to either ttm_eu_backoff_reservation() or
++ * ttm_eu_fence_buffer_objects() when command submission is complete or
++ * has failed.
++ */
++
++extern int ttm_eu_reserve_buffers(struct list_head *list, uint32_t val_seq);
++
++/**
++ * function ttm_eu_fence_buffer_objects.
++ *
++ * @list:        thread private list of ttm_validate_buffer structs.
++ * @sync_obj:    The new sync object for the buffers.
++ *
++ * This function should be called when command submission is complete, and
++ * it will add a new sync object to bos pointed to by entries on @list.
++ * It also unreserves all buffers, putting them on lru lists.
++ *
++ */
++
++extern void ttm_eu_fence_buffer_objects(struct list_head *list, void *sync_obj);
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_fence.c b/drivers/gpu/drm/psb/ttm/ttm_fence.c
+new file mode 100644
+index 0000000..115e7b7
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_fence.c
+@@ -0,0 +1,607 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include "ttm/ttm_fence_api.h"
++#include "ttm/ttm_fence_driver.h"
++#include <linux/wait.h>
++#include <linux/sched.h>
++
++#include <drm/drmP.h>
++
++/*
++ * Simple implementation for now.
++ */
++
++static void ttm_fence_lockup(struct ttm_fence_object *fence, uint32_t mask)
++{
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++
++      printk(KERN_ERR "GPU lockup dectected on engine %u "
++             "fence type 0x%08x\n",
++             (unsigned int)fence->fence_class, (unsigned int)mask);
++      /*
++       * Give engines some time to idle?
++       */
++
++      write_lock(&fc->lock);
++      ttm_fence_handler(fence->fdev, fence->fence_class,
++                        fence->sequence, mask, -EBUSY);
++      write_unlock(&fc->lock);
++}
++
++/*
++ * Convenience function to be called by fence::wait methods that
++ * need polling.
++ */
++
++int ttm_fence_wait_polling(struct ttm_fence_object *fence, bool lazy,
++                         bool interruptible, uint32_t mask)
++{
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++      const struct ttm_fence_driver *driver = ttm_fence_driver(fence);
++      uint32_t count = 0;
++      int ret;
++      unsigned long end_jiffies = fence->timeout_jiffies;
++
++      DECLARE_WAITQUEUE(entry, current);
++      add_wait_queue(&fc->fence_queue, &entry);
++
++      ret = 0;
++
++      for (;;) {
++              __set_current_state((interruptible) ?
++                                  TASK_INTERRUPTIBLE : TASK_UNINTERRUPTIBLE);
++              if (ttm_fence_object_signaled(fence, mask))
++                      break;
++              if (time_after_eq(jiffies, end_jiffies)) {
++                      if (driver->lockup)
++                              driver->lockup(fence, mask);
++                      else
++                              ttm_fence_lockup(fence, mask);
++                      continue;
++              }
++              if (lazy)
++                      schedule_timeout(1);
++              else if ((++count & 0x0F) == 0) {
++                      __set_current_state(TASK_RUNNING);
++                      schedule();
++                      __set_current_state((interruptible) ?
++                                          TASK_INTERRUPTIBLE :
++                                          TASK_UNINTERRUPTIBLE);
++              }
++              if (interruptible && signal_pending(current)) {
++                      ret = -ERESTART;
++                      break;
++              }
++      }
++      __set_current_state(TASK_RUNNING);
++      remove_wait_queue(&fc->fence_queue, &entry);
++      return ret;
++}
++
++/*
++ * Typically called by the IRQ handler.
++ */
++
++void ttm_fence_handler(struct ttm_fence_device *fdev, uint32_t fence_class,
++                     uint32_t sequence, uint32_t type, uint32_t error)
++{
++      int wake = 0;
++      uint32_t diff;
++      uint32_t relevant_type;
++      uint32_t new_type;
++      struct ttm_fence_class_manager *fc = &fdev->fence_class[fence_class];
++      const struct ttm_fence_driver *driver = ttm_fence_driver_from_dev(fdev);
++      struct list_head *head;
++      struct ttm_fence_object *fence, *next;
++      bool found = false;
++
++      if (list_empty(&fc->ring))
++              return;
++
++      list_for_each_entry(fence, &fc->ring, ring) {
++              diff = (sequence - fence->sequence) & fc->sequence_mask;
++              if (diff > fc->wrap_diff) {
++                      found = true;
++                      break;
++              }
++      }
++
++      fc->waiting_types &= ~type;
++      head = (found) ? &fence->ring : &fc->ring;
++
++      list_for_each_entry_safe_reverse(fence, next, head, ring) {
++              if (&fence->ring == &fc->ring)
++                      break;
++
++              DRM_DEBUG("Fence 0x%08lx, sequence 0x%08x, type 0x%08x\n",
++                        (unsigned long)fence, fence->sequence,
++                        fence->fence_type);
++
++              if (error) {
++                      fence->info.error = error;
++                      fence->info.signaled_types = fence->fence_type;
++                      list_del_init(&fence->ring);
++                      wake = 1;
++                      break;
++              }
++
++              relevant_type = type & fence->fence_type;
++              new_type = (fence->info.signaled_types | relevant_type) ^
++                  fence->info.signaled_types;
++
++              if (new_type) {
++                      fence->info.signaled_types |= new_type;
++                      DRM_DEBUG("Fence 0x%08lx signaled 0x%08x\n",
++                                (unsigned long)fence,
++                                fence->info.signaled_types);
++
++                      if (unlikely(driver->signaled))
++                              driver->signaled(fence);
++
++                      if (driver->needed_flush)
++                              fc->pending_flush |=
++                                  driver->needed_flush(fence);
++
++                      if (new_type & fence->waiting_types)
++                              wake = 1;
++              }
++
++              fc->waiting_types |=
++                  fence->waiting_types & ~fence->info.signaled_types;
++
++              if (!(fence->fence_type & ~fence->info.signaled_types)) {
++                      DRM_DEBUG("Fence completely signaled 0x%08lx\n",
++                                (unsigned long)fence);
++                      list_del_init(&fence->ring);
++              }
++      }
++
++      /*
++       * Reinstate lost waiting types.
++       */
++
++      if ((fc->waiting_types & type) != type) {
++              head = head->prev;
++              list_for_each_entry(fence, head, ring) {
++                      if (&fence->ring == &fc->ring)
++                              break;
++                      diff =
++                          (fc->highest_waiting_sequence -
++                           fence->sequence) & fc->sequence_mask;
++                      if (diff > fc->wrap_diff)
++                              break;
++
++                      fc->waiting_types |=
++                          fence->waiting_types & ~fence->info.signaled_types;
++              }
++      }
++
++      if (wake)
++              wake_up_all(&fc->fence_queue);
++}
++
++static void ttm_fence_unring(struct ttm_fence_object *fence)
++{
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++      unsigned long irq_flags;
++
++      write_lock_irqsave(&fc->lock, irq_flags);
++      list_del_init(&fence->ring);
++      write_unlock_irqrestore(&fc->lock, irq_flags);
++}
++
++bool ttm_fence_object_signaled(struct ttm_fence_object *fence, uint32_t mask)
++{
++      unsigned long flags;
++      bool signaled;
++      const struct ttm_fence_driver *driver = ttm_fence_driver(fence);
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++
++      mask &= fence->fence_type;
++      read_lock_irqsave(&fc->lock, flags);
++      signaled = (mask & fence->info.signaled_types) == mask;
++      read_unlock_irqrestore(&fc->lock, flags);
++      if (!signaled && driver->poll) {
++              write_lock_irqsave(&fc->lock, flags);
++              driver->poll(fence->fdev, fence->fence_class, mask);
++              signaled = (mask & fence->info.signaled_types) == mask;
++              write_unlock_irqrestore(&fc->lock, flags);
++      }
++      return signaled;
++}
++
++int ttm_fence_object_flush(struct ttm_fence_object *fence, uint32_t type)
++{
++      const struct ttm_fence_driver *driver = ttm_fence_driver(fence);
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++      unsigned long irq_flags;
++      uint32_t saved_pending_flush;
++      uint32_t diff;
++      bool call_flush;
++
++      if (type & ~fence->fence_type) {
++              DRM_ERROR("Flush trying to extend fence type, "
++                        "0x%x, 0x%x\n", type, fence->fence_type);
++              return -EINVAL;
++      }
++
++      write_lock_irqsave(&fc->lock, irq_flags);
++      fence->waiting_types |= type;
++      fc->waiting_types |= fence->waiting_types;
++      diff = (fence->sequence - fc->highest_waiting_sequence) &
++          fc->sequence_mask;
++
++      if (diff < fc->wrap_diff)
++              fc->highest_waiting_sequence = fence->sequence;
++
++      /*
++       * fence->waiting_types has changed. Determine whether
++       * we need to initiate some kind of flush as a result of this.
++       */
++
++      saved_pending_flush = fc->pending_flush;
++      if (driver->needed_flush)
++              fc->pending_flush |= driver->needed_flush(fence);
++
++      if (driver->poll)
++              driver->poll(fence->fdev, fence->fence_class,
++                           fence->waiting_types);
++
++      call_flush = (fc->pending_flush != 0);
++      write_unlock_irqrestore(&fc->lock, irq_flags);
++
++      if (call_flush && driver->flush)
++              driver->flush(fence->fdev, fence->fence_class);
++
++      return 0;
++}
++
++/*
++ * Make sure old fence objects are signaled before their fence sequences are
++ * wrapped around and reused.
++ */
++
++void ttm_fence_flush_old(struct ttm_fence_device *fdev,
++                       uint32_t fence_class, uint32_t sequence)
++{
++      struct ttm_fence_class_manager *fc = &fdev->fence_class[fence_class];
++      struct ttm_fence_object *fence;
++      unsigned long irq_flags;
++      const struct ttm_fence_driver *driver = fdev->driver;
++      bool call_flush;
++
++      uint32_t diff;
++
++      write_lock_irqsave(&fc->lock, irq_flags);
++
++      list_for_each_entry_reverse(fence, &fc->ring, ring) {
++              diff = (sequence - fence->sequence) & fc->sequence_mask;
++              if (diff <= fc->flush_diff)
++                      break;
++
++              fence->waiting_types = fence->fence_type;
++              fc->waiting_types |= fence->fence_type;
++
++              if (driver->needed_flush)
++                      fc->pending_flush |= driver->needed_flush(fence);
++      }
++
++      if (driver->poll)
++              driver->poll(fdev, fence_class, fc->waiting_types);
++
++      call_flush = (fc->pending_flush != 0);
++      write_unlock_irqrestore(&fc->lock, irq_flags);
++
++      if (call_flush && driver->flush)
++              driver->flush(fdev, fence->fence_class);
++
++      /*
++       * FIXME: Shold we implement a wait here for really old fences?
++       */
++
++}
++
++int ttm_fence_object_wait(struct ttm_fence_object *fence,
++                        bool lazy, bool interruptible, uint32_t mask)
++{
++      const struct ttm_fence_driver *driver = ttm_fence_driver(fence);
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++      int ret = 0;
++      unsigned long timeout;
++      unsigned long cur_jiffies;
++      unsigned long to_jiffies;
++
++      if (mask & ~fence->fence_type) {
++              DRM_ERROR("Wait trying to extend fence type"
++                        " 0x%08x 0x%08x\n", mask, fence->fence_type);
++              BUG();
++              return -EINVAL;
++      }
++
++      if (driver->wait)
++              return driver->wait(fence, lazy, interruptible, mask);
++
++      ttm_fence_object_flush(fence, mask);
++      retry:
++      if (!driver->has_irq ||
++          driver->has_irq(fence->fdev, fence->fence_class, mask)) {
++
++              cur_jiffies = jiffies;
++              to_jiffies = fence->timeout_jiffies;
++
++              timeout = (time_after(to_jiffies, cur_jiffies)) ?
++                  to_jiffies - cur_jiffies : 1;
++
++              if (interruptible)
++                      ret = wait_event_interruptible_timeout
++                          (fc->fence_queue,
++                           ttm_fence_object_signaled(fence, mask), timeout);
++              else
++                      ret = wait_event_timeout
++                          (fc->fence_queue,
++                           ttm_fence_object_signaled(fence, mask), timeout);
++
++              if (unlikely(ret == -ERESTARTSYS))
++                      return -ERESTART;
++
++              if (unlikely(ret == 0)) {
++                      if (driver->lockup)
++                              driver->lockup(fence, mask);
++                      else
++                              ttm_fence_lockup(fence, mask);
++                      goto retry;
++              }
++
++              return 0;
++      }
++
++      return ttm_fence_wait_polling(fence, lazy, interruptible, mask);
++}
++
++int ttm_fence_object_emit(struct ttm_fence_object *fence, uint32_t fence_flags,
++                        uint32_t fence_class, uint32_t type)
++{
++      const struct ttm_fence_driver *driver = ttm_fence_driver(fence);
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++      unsigned long flags;
++      uint32_t sequence;
++      unsigned long timeout;
++      int ret;
++
++      ttm_fence_unring(fence);
++      ret = driver->emit(fence->fdev,
++                         fence_class, fence_flags, &sequence, &timeout);
++      if (ret)
++              return ret;
++
++      write_lock_irqsave(&fc->lock, flags);
++      fence->fence_class = fence_class;
++      fence->fence_type = type;
++      fence->waiting_types = 0;
++      fence->info.signaled_types = 0;
++      fence->info.error = 0;
++      fence->sequence = sequence;
++      fence->timeout_jiffies = timeout;
++      if (list_empty(&fc->ring))
++              fc->highest_waiting_sequence = sequence - 1;
++      list_add_tail(&fence->ring, &fc->ring);
++      fc->latest_queued_sequence = sequence;
++      write_unlock_irqrestore(&fc->lock, flags);
++      return 0;
++}
++
++int ttm_fence_object_init(struct ttm_fence_device *fdev,
++                        uint32_t fence_class,
++                        uint32_t type,
++                        uint32_t create_flags,
++                        void (*destroy) (struct ttm_fence_object *),
++                        struct ttm_fence_object *fence)
++{
++      int ret = 0;
++
++      kref_init(&fence->kref);
++      fence->fence_class = fence_class;
++      fence->fence_type = type;
++      fence->info.signaled_types = 0;
++      fence->waiting_types = 0;
++      fence->sequence = 0;
++      fence->info.error = 0;
++      fence->fdev = fdev;
++      fence->destroy = destroy;
++      INIT_LIST_HEAD(&fence->ring);
++      atomic_inc(&fdev->count);
++
++      if (create_flags & TTM_FENCE_FLAG_EMIT) {
++              ret = ttm_fence_object_emit(fence, create_flags,
++                                          fence->fence_class, type);
++      }
++
++      return ret;
++}
++
++int ttm_fence_object_create(struct ttm_fence_device *fdev,
++                          uint32_t fence_class,
++                          uint32_t type,
++                          uint32_t create_flags,
++                          struct ttm_fence_object **c_fence)
++{
++      struct ttm_fence_object *fence;
++      int ret;
++
++      ret = ttm_mem_global_alloc(fdev->mem_glob, sizeof(*fence), false, false, false);
++      if (unlikely(ret != 0)) {
++              printk(KERN_ERR "Out of memory creating fence object\n");
++              return ret;
++      }
++
++      fence = kmalloc(sizeof(*fence), GFP_KERNEL);
++      if (!fence) {
++              printk(KERN_ERR "Out of memory creating fence object\n");
++              ttm_mem_global_free(fdev->mem_glob, sizeof(*fence), false);
++              return -ENOMEM;
++      }
++
++      ret = ttm_fence_object_init(fdev, fence_class, type,
++                                  create_flags, NULL, fence);
++      if (ret) {
++              ttm_fence_object_unref(&fence);
++              return ret;
++      }
++      *c_fence = fence;
++
++      return 0;
++}
++
++static void ttm_fence_object_destroy(struct kref *kref)
++{
++      struct ttm_fence_object *fence =
++          container_of(kref, struct ttm_fence_object, kref);
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++      unsigned long irq_flags;
++
++      write_lock_irqsave(&fc->lock, irq_flags);
++      list_del_init(&fence->ring);
++      write_unlock_irqrestore(&fc->lock, irq_flags);
++
++      atomic_dec(&fence->fdev->count);
++      if (fence->destroy)
++              fence->destroy(fence);
++      else {
++              ttm_mem_global_free(fence->fdev->mem_glob, sizeof(*fence), false);
++              kfree(fence);
++      }
++}
++
++void ttm_fence_device_release(struct ttm_fence_device *fdev)
++{
++      kfree(fdev->fence_class);
++}
++
++int
++ttm_fence_device_init(int num_classes,
++                    struct ttm_mem_global *mem_glob,
++                    struct ttm_fence_device *fdev,
++                    const struct ttm_fence_class_init *init,
++                    bool replicate_init, const struct ttm_fence_driver *driver)
++{
++      struct ttm_fence_class_manager *fc;
++      const struct ttm_fence_class_init *fci;
++      int i;
++
++      fdev->mem_glob = mem_glob;
++      fdev->fence_class = kzalloc(num_classes *
++                                  sizeof(*fdev->fence_class), GFP_KERNEL);
++
++      if (unlikely(!fdev->fence_class))
++              return -ENOMEM;
++
++      fdev->num_classes = num_classes;
++      atomic_set(&fdev->count, 0);
++      fdev->driver = driver;
++
++      for (i = 0; i < fdev->num_classes; ++i) {
++              fc = &fdev->fence_class[i];
++              fci = &init[(replicate_init) ? 0 : i];
++
++              fc->wrap_diff = fci->wrap_diff;
++              fc->flush_diff = fci->flush_diff;
++              fc->sequence_mask = fci->sequence_mask;
++
++              rwlock_init(&fc->lock);
++              INIT_LIST_HEAD(&fc->ring);
++              init_waitqueue_head(&fc->fence_queue);
++      }
++
++      return 0;
++}
++
++struct ttm_fence_info ttm_fence_get_info(struct ttm_fence_object *fence)
++{
++      struct ttm_fence_class_manager *fc = ttm_fence_fc(fence);
++      struct ttm_fence_info tmp;
++      unsigned long irq_flags;
++
++      read_lock_irqsave(&fc->lock, irq_flags);
++      tmp = fence->info;
++      read_unlock_irqrestore(&fc->lock, irq_flags);
++
++      return tmp;
++}
++
++void ttm_fence_object_unref(struct ttm_fence_object **p_fence)
++{
++      struct ttm_fence_object *fence = *p_fence;
++
++      *p_fence = NULL;
++      (void)kref_put(&fence->kref, &ttm_fence_object_destroy);
++}
++
++/*
++ * Placement / BO sync object glue.
++ */
++
++bool ttm_fence_sync_obj_signaled(void *sync_obj, void *sync_arg)
++{
++      struct ttm_fence_object *fence = (struct ttm_fence_object *)sync_obj;
++      uint32_t fence_types = (uint32_t) (unsigned long)sync_arg;
++
++      return ttm_fence_object_signaled(fence, fence_types);
++}
++
++int ttm_fence_sync_obj_wait(void *sync_obj, void *sync_arg,
++                          bool lazy, bool interruptible)
++{
++      struct ttm_fence_object *fence = (struct ttm_fence_object *)sync_obj;
++      uint32_t fence_types = (uint32_t) (unsigned long)sync_arg;
++
++      return ttm_fence_object_wait(fence, lazy, interruptible, fence_types);
++}
++
++int ttm_fence_sync_obj_flush(void *sync_obj, void *sync_arg)
++{
++      struct ttm_fence_object *fence = (struct ttm_fence_object *)sync_obj;
++      uint32_t fence_types = (uint32_t) (unsigned long)sync_arg;
++
++      return ttm_fence_object_flush(fence, fence_types);
++}
++
++void ttm_fence_sync_obj_unref(void **sync_obj)
++{
++      ttm_fence_object_unref((struct ttm_fence_object **)sync_obj);
++}
++
++void *ttm_fence_sync_obj_ref(void *sync_obj)
++{
++      return (void *)
++          ttm_fence_object_ref((struct ttm_fence_object *)sync_obj);
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_fence_api.h b/drivers/gpu/drm/psb/ttm/ttm_fence_api.h
+new file mode 100644
+index 0000000..2a4e12b
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_fence_api.h
+@@ -0,0 +1,277 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++#ifndef _TTM_FENCE_API_H_
++#define _TTM_FENCE_API_H_
++
++#include <linux/list.h>
++#include <linux/kref.h>
++
++#define TTM_FENCE_FLAG_EMIT (1 << 0)
++#define TTM_FENCE_TYPE_EXE  (1 << 0)
++
++struct ttm_fence_device;
++
++/**
++ * struct ttm_fence_info
++ *
++ * @fence_class:    The fence class.
++ * @fence_type:     Bitfield indicating types for this fence.
++ * @signaled_types: Bitfield indicating which types are signaled.
++ * @error:          Last error reported from the device.
++ *
++ * Used as output from the ttm_fence_get_info
++ */
++
++struct ttm_fence_info {
++      uint32_t signaled_types;
++      uint32_t error;
++};
++
++/**
++ * struct ttm_fence_object
++ *
++ * @fdev:            Pointer to the fence device struct.
++ * @kref:            Holds the reference count of this fence object.
++ * @ring:            List head used for the circular list of not-completely
++ *                   signaled fences.
++ * @info:            Data for fast retrieval using the ttm_fence_get_info()
++ * function.
++ * @timeout_jiffies: Absolute jiffies value indicating when this fence
++ *                   object times out and, if waited on, calls ttm_fence_lockup
++ *                   to check for and resolve a GPU lockup.
++ * @sequence:        Fence sequence number.
++ * @waiting_types:   Types currently waited on.
++ * @destroy:         Called to free the fence object, when its refcount has
++ *                   reached zero. If NULL, kfree is used.
++ *
++ * This struct is provided in the driver interface so that drivers can
++ * derive from it and create their own fence implementation. All members
++ * are private to the fence implementation and the fence driver callbacks.
++ * Otherwise a driver may access the derived object using container_of().
++ */
++
++struct ttm_fence_object {
++      struct ttm_fence_device *fdev;
++      struct kref kref;
++      uint32_t fence_class;
++      uint32_t fence_type;
++
++      /*
++       * The below fields are protected by the fence class
++       * manager spinlock.
++       */
++
++      struct list_head ring;
++      struct ttm_fence_info info;
++      unsigned long timeout_jiffies;
++      uint32_t sequence;
++      uint32_t waiting_types;
++      void (*destroy) (struct ttm_fence_object *);
++};
++
++/**
++ * ttm_fence_object_init
++ *
++ * @fdev: Pointer to a struct ttm_fence_device.
++ * @fence_class: Fence class for this fence.
++ * @type: Fence type for this fence.
++ * @create_flags: Flags indicating varios actions at init time. At this point
++ * there's only TTM_FENCE_FLAG_EMIT, which triggers a sequence emission to
++ * the command stream.
++ * @destroy: Destroy function. If NULL, kfree() is used.
++ * @fence: The struct ttm_fence_object to initialize.
++ *
++ * Initialize a pre-allocated fence object. This function, together with the
++ * destroy function makes it possible to derive driver-specific fence objects.
++ */
++
++extern int
++ttm_fence_object_init(struct ttm_fence_device *fdev,
++                    uint32_t fence_class,
++                    uint32_t type,
++                    uint32_t create_flags,
++                    void (*destroy) (struct ttm_fence_object * fence),
++                    struct ttm_fence_object *fence);
++
++/**
++ * ttm_fence_object_create
++ *
++ * @fdev: Pointer to a struct ttm_fence_device.
++ * @fence_class: Fence class for this fence.
++ * @type: Fence type for this fence.
++ * @create_flags: Flags indicating varios actions at init time. At this point
++ * there's only TTM_FENCE_FLAG_EMIT, which triggers a sequence emission to
++ * the command stream.
++ * @c_fence: On successful termination, *(@c_fence) will point to the created
++ * fence object.
++ *
++ * Create and initialize a struct ttm_fence_object. The destroy function will
++ * be set to kfree().
++ */
++
++extern int
++ttm_fence_object_create(struct ttm_fence_device *fdev,
++                      uint32_t fence_class,
++                      uint32_t type,
++                      uint32_t create_flags,
++                      struct ttm_fence_object **c_fence);
++
++/**
++ * ttm_fence_object_wait
++ *
++ * @fence: The fence object to wait on.
++ * @lazy: Allow sleeps to reduce the cpu-usage if polling.
++ * @interruptible: Sleep interruptible when waiting.
++ * @type_mask: Wait for the given type_mask to signal.
++ *
++ * Wait for a fence to signal the given type_mask. The function will
++ * perform a fence_flush using type_mask. (See ttm_fence_object_flush).
++ *
++ * Returns
++ * -ERESTART if interrupted by a signal.
++ * May return driver-specific error codes if timed-out.
++ */
++
++extern int
++ttm_fence_object_wait(struct ttm_fence_object *fence,
++                    bool lazy, bool interruptible, uint32_t type_mask);
++
++/**
++ * ttm_fence_object_flush
++ *
++ * @fence: The fence object to flush.
++ * @flush_mask: Fence types to flush.
++ *
++ * Make sure that the given fence eventually signals the
++ * types indicated by @flush_mask. Note that this may or may not
++ * map to a CPU or GPU flush.
++ */
++
++extern int
++ttm_fence_object_flush(struct ttm_fence_object *fence, uint32_t flush_mask);
++
++/**
++ * ttm_fence_get_info
++ *
++ * @fence: The fence object.
++ *
++ * Copy the info block from the fence while holding relevant locks.
++ */
++
++struct ttm_fence_info ttm_fence_get_info(struct ttm_fence_object *fence);
++
++/**
++ * ttm_fence_object_ref
++ *
++ * @fence: The fence object.
++ *
++ * Return a ref-counted pointer to the fence object indicated by @fence.
++ */
++
++static inline struct ttm_fence_object *ttm_fence_object_ref(struct
++                                                          ttm_fence_object
++                                                          *fence)
++{
++      kref_get(&fence->kref);
++      return fence;
++}
++
++/**
++ * ttm_fence_object_unref
++ *
++ * @p_fence: Pointer to a ref-counted pinter to a struct ttm_fence_object.
++ *
++ * Unreference the fence object pointed to by *(@p_fence), clearing
++ * *(p_fence).
++ */
++
++extern void ttm_fence_object_unref(struct ttm_fence_object **p_fence);
++
++/**
++ * ttm_fence_object_signaled
++ *
++ * @fence: Pointer to the struct ttm_fence_object.
++ * @mask: Type mask to check whether signaled.
++ *
++ * This function checks (without waiting) whether the fence object
++ * pointed to by @fence has signaled the types indicated by @mask,
++ * and returns 1 if true, 0 if false. This function does NOT perform
++ * an implicit fence flush.
++ */
++
++extern bool
++ttm_fence_object_signaled(struct ttm_fence_object *fence, uint32_t mask);
++
++/**
++ * ttm_fence_class
++ *
++ * @fence: Pointer to the struct ttm_fence_object.
++ *
++ * Convenience function that returns the fence class of a struct ttm_fence_object.
++ */
++
++static inline uint32_t ttm_fence_class(const struct ttm_fence_object *fence)
++{
++      return fence->fence_class;
++}
++
++/**
++ * ttm_fence_types
++ *
++ * @fence: Pointer to the struct ttm_fence_object.
++ *
++ * Convenience function that returns the fence types of a struct ttm_fence_object.
++ */
++
++static inline uint32_t ttm_fence_types(const struct ttm_fence_object *fence)
++{
++      return fence->fence_type;
++}
++
++/*
++ * The functions below are wrappers to the above functions, with
++ * similar names but with sync_obj omitted. These wrappers are intended
++ * to be plugged directly into the buffer object driver's sync object
++ * API, if the driver chooses to use ttm_fence_objects as buffer object
++ * sync objects. In the prototypes below, a sync_obj is cast to a
++ * struct ttm_fence_object, whereas a sync_arg is cast to an uint32_t representing
++ * a fence_type argument.
++ */
++
++extern bool ttm_fence_sync_obj_signaled(void *sync_obj, void *sync_arg);
++extern int ttm_fence_sync_obj_wait(void *sync_obj, void *sync_arg,
++                                 bool lazy, bool interruptible);
++extern int ttm_fence_sync_obj_flush(void *sync_obj, void *sync_arg);
++extern void ttm_fence_sync_obj_unref(void **sync_obj);
++extern void *ttm_fence_sync_obj_ref(void *sync_obj);
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_fence_driver.h b/drivers/gpu/drm/psb/ttm/ttm_fence_driver.h
+new file mode 100644
+index 0000000..2eca494
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_fence_driver.h
+@@ -0,0 +1,309 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++#ifndef _TTM_FENCE_DRIVER_H_
++#define _TTM_FENCE_DRIVER_H_
++
++#include <linux/kref.h>
++#include <linux/spinlock.h>
++#include <linux/wait.h>
++#include "ttm_fence_api.h"
++#include "ttm_memory.h"
++
++/** @file ttm_fence_driver.h
++ *
++ * Definitions needed for a driver implementing the
++ * ttm_fence subsystem.
++ */
++
++/**
++ * struct ttm_fence_class_manager:
++ *
++ * @wrap_diff: Sequence difference to catch 32-bit wrapping.
++ * if (seqa - seqb) > @wrap_diff, then seqa < seqb.
++ * @flush_diff: Sequence difference to trigger fence flush.
++ * if (cur_seq - seqa) > @flush_diff, then consider fence object with
++ * seqa as old an needing a flush.
++ * @sequence_mask: Mask of valid bits in a fence sequence.
++ * @lock: Lock protecting this struct as well as fence objects
++ * associated with this struct.
++ * @ring: Circular sequence-ordered list of fence objects.
++ * @pending_flush: Fence types currently needing a flush.
++ * @waiting_types: Fence types that are currently waited for.
++ * @fence_queue: Queue of waiters on fences belonging to this fence class.
++ * @highest_waiting_sequence: Sequence number of the fence with highest sequence
++ * number and that is waited for.
++ * @latest_queued_sequence: Sequence number of the fence latest queued on the ring.
++ */
++
++struct ttm_fence_class_manager {
++
++      /*
++       * Unprotected constant members.
++       */
++
++      uint32_t wrap_diff;
++      uint32_t flush_diff;
++      uint32_t sequence_mask;
++
++      /*
++       * The rwlock protects this structure as well as
++       * the data in all fence objects belonging to this
++       * class. This should be OK as most fence objects are
++       * only read from once they're created.
++       */
++
++      rwlock_t lock;
++      struct list_head ring;
++      uint32_t pending_flush;
++      uint32_t waiting_types;
++      wait_queue_head_t fence_queue;
++      uint32_t highest_waiting_sequence;
++      uint32_t latest_queued_sequence;
++};
++
++/**
++ * struct ttm_fence_device
++ *
++ * @fence_class:  Array of fence class managers.
++ * @num_classes:  Array dimension of @fence_class.
++ * @count:        Current number of fence objects for statistics.
++ * @driver:       Driver struct.
++ *
++ * Provided in the driver interface so that the driver can derive
++ * from this struct for its driver_private, and accordingly
++ * access the driver_private from the fence driver callbacks.
++ *
++ * All members except "count" are initialized at creation and
++ * never touched after that. No protection needed.
++ *
++ * This struct is private to the fence implementation and to the fence
++ * driver callbacks, and may otherwise be used by drivers only to
++ * obtain the derived device_private object using container_of().
++ */
++
++struct ttm_fence_device {
++      struct ttm_mem_global *mem_glob;
++      struct ttm_fence_class_manager *fence_class;
++      uint32_t num_classes;
++      atomic_t count;
++      const struct ttm_fence_driver *driver;
++};
++
++/**
++ * struct ttm_fence_class_init
++ *
++ * @wrap_diff:    Fence sequence number wrap indicator. If
++ * (sequence1 - sequence2) > @wrap_diff, then sequence1 is
++ * considered to be older than sequence2.
++ * @flush_diff:   Fence sequence number flush indicator.
++ * If a non-completely-signaled fence has a fence sequence number
++ * sequence1 and (sequence1 - current_emit_sequence) > @flush_diff,
++ * the fence is considered too old and it will be flushed upon the
++ * next call of ttm_fence_flush_old(), to make sure no fences with
++ * stale sequence numbers remains unsignaled. @flush_diff should
++ * be sufficiently less than @wrap_diff.
++ * @sequence_mask: Mask with valid bits of the fence sequence
++ * number set to 1.
++ *
++ * This struct is used as input to ttm_fence_device_init.
++ */
++
++struct ttm_fence_class_init {
++      uint32_t wrap_diff;
++      uint32_t flush_diff;
++      uint32_t sequence_mask;
++};
++
++/**
++ * struct ttm_fence_driver
++ *
++ * @has_irq: Called by a potential waiter. Should return 1 if a
++ * fence object with indicated parameters is expected to signal
++ * automatically, and 0 if the fence implementation needs to
++ * repeatedly call @poll to make it signal.
++ * @emit:    Make sure a fence with the given parameters is
++ * present in the indicated command stream. Return its sequence number
++ * in "breadcrumb".
++ * @poll:    Check and report sequences of the given "fence_class"
++ *           that have signaled "types"
++ * @flush:   Make sure that the types indicated by the bitfield
++ *           ttm_fence_class_manager::pending_flush will eventually
++ *           signal. These bits have been put together using the
++ *           result from the needed_flush function described below.
++ * @needed_flush: Given the fence_class and fence_types indicated by
++ *           "fence", and the last received fence sequence of this
++ *           fence class, indicate what types need a fence flush to
++ *           signal. Return as a bitfield.
++ * @wait:    Set to non-NULL if the driver wants to override the fence
++ *           wait implementation. Return 0 on success, -EBUSY on failure,
++ *           and -ERESTART if interruptible and a signal is pending.
++ * @signaled:  Driver callback that is called whenever a
++ *           ttm_fence_object::signaled_types has changed status.
++ *           This function is called from atomic context,
++ *           with the ttm_fence_class_manager::lock held in write mode.
++ * @lockup:  Driver callback that is called whenever a wait has exceeded
++ *           the lifetime of a fence object.
++ *           If there is a GPU lockup,
++ *           this function should, if possible, reset the GPU,
++ *           call the ttm_fence_handler with an error status, and
++ *           return. If no lockup was detected, simply extend the
++ *           fence timeout_jiffies and return. The driver might
++ *           want to protect the lockup check with a mutex and cache a
++ *           non-locked-up status for a while to avoid an excessive
++ *           amount of lockup checks from every waiting thread.
++ */
++
++struct ttm_fence_driver {
++      bool (*has_irq) (struct ttm_fence_device * fdev,
++                      uint32_t fence_class, uint32_t flags);
++      int (*emit) (struct ttm_fence_device * fdev,
++                   uint32_t fence_class,
++                   uint32_t flags,
++                   uint32_t * breadcrumb, unsigned long *timeout_jiffies);
++      void (*flush) (struct ttm_fence_device * fdev, uint32_t fence_class);
++      void (*poll) (struct ttm_fence_device * fdev,
++                    uint32_t fence_class, uint32_t types);
++       uint32_t(*needed_flush)
++       (struct ttm_fence_object * fence);
++      int (*wait) (struct ttm_fence_object * fence, bool lazy,
++                   bool interruptible, uint32_t mask);
++      void (*signaled) (struct ttm_fence_object * fence);
++      void (*lockup) (struct ttm_fence_object * fence, uint32_t fence_types);
++};
++
++/**
++ * function ttm_fence_device_init
++ *
++ * @num_classes:      Number of fence classes for this fence implementation.
++ * @mem_global:       Pointer to the global memory accounting info.
++ * @fdev:             Pointer to an uninitialised struct ttm_fence_device.
++ * @init:             Array of initialization info for each fence class.
++ * @replicate_init:   Use the first @init initialization info for all classes.
++ * @driver:           Driver callbacks.
++ *
++ * Initialize a struct ttm_fence_driver structure. Returns -ENOMEM if
++ * out-of-memory. Otherwise returns 0.
++ */
++extern int
++ttm_fence_device_init(int num_classes,
++                    struct ttm_mem_global *mem_glob,
++                    struct ttm_fence_device *fdev,
++                    const struct ttm_fence_class_init *init,
++                    bool replicate_init,
++                    const struct ttm_fence_driver *driver);
++
++/**
++ * function ttm_fence_device_release
++ *
++ * @fdev:             Pointer to the fence device.
++ *
++ * Release all resources held by a fence device. Note that before
++ * this function is called, the caller must have made sure all fence
++ * objects belonging to this fence device are completely signaled.
++ */
++
++extern void ttm_fence_device_release(struct ttm_fence_device *fdev);
++
++/**
++ * ttm_fence_handler - the fence handler.
++ *
++ * @fdev:        Pointer to the fence device.
++ * @fence_class: Fence class that signals.
++ * @sequence:    Signaled sequence.
++ * @type:        Types that signal.
++ * @error:       Error from the engine.
++ *
++ * This function signals all fences with a sequence previous to the
++ * @sequence argument, and belonging to @fence_class. The signaled fence
++ * types are provided in @type. If error is non-zero, the error member
++ * of the fence with sequence = @sequence is set to @error. This value
++ * may be reported back to user-space, indicating, for example an illegal
++ * 3D command or illegal mpeg data.
++ *
++ * This function is typically called from the driver::poll method when the
++ * command sequence preceding the fence marker has executed. It should be
++ * called with the ttm_fence_class_manager::lock held in write mode and
++ * may be called from interrupt context.
++ */
++
++extern void
++ttm_fence_handler(struct ttm_fence_device *fdev,
++                uint32_t fence_class,
++                uint32_t sequence, uint32_t type, uint32_t error);
++
++/**
++ * ttm_fence_driver_from_dev
++ *
++ * @fdev:        The ttm fence device.
++ *
++ * Returns a pointer to the fence driver struct.
++ */
++
++static inline const struct ttm_fence_driver *ttm_fence_driver_from_dev(struct
++                                                                     ttm_fence_device
++                                                                     *fdev)
++{
++      return fdev->driver;
++}
++
++/**
++ * ttm_fence_driver
++ *
++ * @fence:        Pointer to a ttm fence object.
++ *
++ * Returns a pointer to the fence driver struct.
++ */
++
++static inline const struct ttm_fence_driver *ttm_fence_driver(struct
++                                                            ttm_fence_object
++                                                            *fence)
++{
++      return ttm_fence_driver_from_dev(fence->fdev);
++}
++
++/**
++ * ttm_fence_fc
++ *
++ * @fence:        Pointer to a ttm fence object.
++ *
++ * Returns a pointer to the struct ttm_fence_class_manager for the
++ * fence class of @fence.
++ */
++
++static inline struct ttm_fence_class_manager *ttm_fence_fc(struct
++                                                         ttm_fence_object
++                                                         *fence)
++{
++      return &fence->fdev->fence_class[fence->fence_class];
++}
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_fence_user.c b/drivers/gpu/drm/psb/ttm/ttm_fence_user.c
+new file mode 100644
+index 0000000..d9bb787
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_fence_user.c
+@@ -0,0 +1,242 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include <drm/drmP.h>
++#include "ttm/ttm_fence_user.h"
++#include "ttm/ttm_object.h"
++#include "ttm/ttm_fence_driver.h"
++#include "ttm/ttm_userobj_api.h"
++
++/**
++ * struct ttm_fence_user_object
++ *
++ * @base:    The base object used for user-space visibility and refcounting.
++ *
++ * @fence:   The fence object itself.
++ *
++ */
++
++struct ttm_fence_user_object {
++      struct ttm_base_object base;
++      struct ttm_fence_object fence;
++};
++
++static struct ttm_fence_user_object *ttm_fence_user_object_lookup(struct
++                                                                ttm_object_file
++                                                                *tfile,
++                                                                uint32_t
++                                                                handle)
++{
++      struct ttm_base_object *base;
++
++      base = ttm_base_object_lookup(tfile, handle);
++      if (unlikely(base == NULL)) {
++              printk(KERN_ERR "Invalid fence handle 0x%08lx\n",
++                     (unsigned long)handle);
++              return NULL;
++      }
++
++      if (unlikely(base->object_type != ttm_fence_type)) {
++              ttm_base_object_unref(&base);
++              printk(KERN_ERR "Invalid fence handle 0x%08lx\n",
++                     (unsigned long)handle);
++              return NULL;
++      }
++
++      return container_of(base, struct ttm_fence_user_object, base);
++}
++
++/*
++ * The fence object destructor.
++ */
++
++static void ttm_fence_user_destroy(struct ttm_fence_object *fence)
++{
++      struct ttm_fence_user_object *ufence =
++          container_of(fence, struct ttm_fence_user_object, fence);
++
++      ttm_mem_global_free(fence->fdev->mem_glob, sizeof(*ufence), false);
++      kfree(ufence);
++}
++
++/*
++ * The base object destructor. We basically unly unreference the
++ * attached fence object.
++ */
++
++static void ttm_fence_user_release(struct ttm_base_object **p_base)
++{
++      struct ttm_fence_user_object *ufence;
++      struct ttm_base_object *base = *p_base;
++      struct ttm_fence_object *fence;
++
++      *p_base = NULL;
++
++      if (unlikely(base == NULL))
++              return;
++
++      ufence = container_of(base, struct ttm_fence_user_object, base);
++      fence = &ufence->fence;
++      ttm_fence_object_unref(&fence);
++}
++
++int
++ttm_fence_user_create(struct ttm_fence_device *fdev,
++                    struct ttm_object_file *tfile,
++                    uint32_t fence_class,
++                    uint32_t fence_types,
++                    uint32_t create_flags,
++                    struct ttm_fence_object **fence, uint32_t * user_handle)
++{
++      int ret;
++      struct ttm_fence_object *tmp;
++      struct ttm_fence_user_object *ufence;
++
++      ret = ttm_mem_global_alloc(fdev->mem_glob, sizeof(*ufence), false, false, false);
++      if (unlikely(ret != 0))
++              return -ENOMEM;
++
++      ufence = kmalloc(sizeof(*ufence), GFP_KERNEL);
++      if (unlikely(ufence == NULL)) {
++              ttm_mem_global_free(fdev->mem_glob, sizeof(*ufence), false);
++              return -ENOMEM;
++      }
++
++      ret = ttm_fence_object_init(fdev,
++                                  fence_class,
++                                  fence_types, create_flags,
++                                  &ttm_fence_user_destroy, &ufence->fence);
++
++      if (unlikely(ret != 0))
++              goto out_err0;
++
++      /*
++       * One fence ref is held by the fence ptr we return.
++       * The other one by the base object. Need to up the
++       * fence refcount before we publish this object to
++       * user-space.
++       */
++
++      tmp = ttm_fence_object_ref(&ufence->fence);
++      ret = ttm_base_object_init(tfile, &ufence->base,
++                                 false, ttm_fence_type,
++                                 &ttm_fence_user_release, NULL);
++
++      if (unlikely(ret != 0))
++              goto out_err1;
++
++      *fence = &ufence->fence;
++      *user_handle = ufence->base.hash.key;
++
++      return 0;
++      out_err1:
++      ttm_fence_object_unref(&tmp);
++      tmp = &ufence->fence;
++      ttm_fence_object_unref(&tmp);
++      return ret;
++      out_err0:
++      ttm_mem_global_free(fdev->mem_glob, sizeof(*ufence), false);
++      kfree(ufence);
++      return ret;
++}
++
++int ttm_fence_signaled_ioctl(struct ttm_object_file *tfile, void *data)
++{
++      int ret;
++      union ttm_fence_signaled_arg *arg = data;
++      struct ttm_fence_object *fence;
++      struct ttm_fence_info info;
++      struct ttm_fence_user_object *ufence;
++      struct ttm_base_object *base;
++      ret = 0;
++
++      ufence = ttm_fence_user_object_lookup(tfile, arg->req.handle);
++      if (unlikely(ufence == NULL))
++              return -EINVAL;
++
++      fence = &ufence->fence;
++
++      if (arg->req.flush) {
++              ret = ttm_fence_object_flush(fence, arg->req.fence_type);
++              if (unlikely(ret != 0))
++                      goto out;
++      }
++
++      info = ttm_fence_get_info(fence);
++      arg->rep.signaled_types = info.signaled_types;
++      arg->rep.fence_error = info.error;
++
++      out:
++      base = &ufence->base;
++      ttm_base_object_unref(&base);
++      return ret;
++}
++
++int ttm_fence_finish_ioctl(struct ttm_object_file *tfile, void *data)
++{
++      int ret;
++      union ttm_fence_finish_arg *arg = data;
++      struct ttm_fence_user_object *ufence;
++      struct ttm_base_object *base;
++      struct ttm_fence_object *fence;
++      ret = 0;
++
++      ufence = ttm_fence_user_object_lookup(tfile, arg->req.handle);
++      if (unlikely(ufence == NULL))
++              return -EINVAL;
++
++      fence = &ufence->fence;
++
++      ret = ttm_fence_object_wait(fence,
++                                  arg->req.mode & TTM_FENCE_FINISH_MODE_LAZY,
++                                  true, arg->req.fence_type);
++      if (likely(ret == 0)) {
++              struct ttm_fence_info info = ttm_fence_get_info(fence);
++
++              arg->rep.signaled_types = info.signaled_types;
++              arg->rep.fence_error = info.error;
++      }
++
++      base = &ufence->base;
++      ttm_base_object_unref(&base);
++
++      return ret;
++}
++
++int ttm_fence_unref_ioctl(struct ttm_object_file *tfile, void *data)
++{
++      struct ttm_fence_unref_arg *arg = data;
++      int ret = 0;
++
++      ret = ttm_ref_object_base_unref(tfile, arg->handle, ttm_fence_type);
++      return ret;
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_fence_user.h b/drivers/gpu/drm/psb/ttm/ttm_fence_user.h
+new file mode 100644
+index 0000000..0cad597
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_fence_user.h
+@@ -0,0 +1,147 @@
++/**************************************************************************
++ *
++ * Copyright 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ **************************************************************************/
++/*
++ * Authors
++ * Thomas Hellström <thomas-at-tungstengraphics-dot-com>
++ */
++
++#ifndef TTM_FENCE_USER_H
++#define TTM_FENCE_USER_H
++
++#if !defined(__KERNEL__) && !defined(_KERNEL)
++#include <stdint.h>
++#endif
++
++#define TTM_FENCE_MAJOR 0
++#define TTM_FENCE_MINOR 1
++#define TTM_FENCE_PL    0
++#define TTM_FENCE_DATE  "080819"
++
++/**
++ * struct ttm_fence_signaled_req
++ *
++ * @handle: Handle to the fence object. Input.
++ *
++ * @fence_type: Fence types we want to flush. Input.
++ *
++ * @flush: Boolean. Flush the indicated fence_types. Input.
++ *
++ * Argument to the TTM_FENCE_SIGNALED ioctl.
++ */
++
++struct ttm_fence_signaled_req {
++      uint32_t handle;
++      uint32_t fence_type;
++      int32_t flush;
++      uint32_t pad64;
++};
++
++/**
++ * struct ttm_fence_rep
++ *
++ * @signaled_types: Fence type that has signaled.
++ *
++ * @fence_error: Command execution error.
++ * Hardware errors that are consequences of the execution
++ * of the command stream preceding the fence are reported
++ * here.
++ *
++ * Output argument to the TTM_FENCE_SIGNALED and
++ * TTM_FENCE_FINISH ioctls.
++ */
++
++struct ttm_fence_rep {
++      uint32_t signaled_types;
++      uint32_t fence_error;
++};
++
++union ttm_fence_signaled_arg {
++      struct ttm_fence_signaled_req req;
++      struct ttm_fence_rep rep;
++};
++
++/*
++ * Waiting mode flags for the TTM_FENCE_FINISH ioctl.
++ *
++ * TTM_FENCE_FINISH_MODE_LAZY: Allow for sleeps during polling
++ * wait.
++ *
++ * TTM_FENCE_FINISH_MODE_NO_BLOCK: Don't block waiting for GPU,
++ * but return -EBUSY if the buffer is busy.
++ */
++
++#define TTM_FENCE_FINISH_MODE_LAZY     (1 << 0)
++#define TTM_FENCE_FINISH_MODE_NO_BLOCK (1 << 1)
++
++/**
++ * struct ttm_fence_finish_req
++ *
++ * @handle: Handle to the fence object. Input.
++ *
++ * @fence_type: Fence types we want to finish.
++ *
++ * @mode: Wait mode.
++ *
++ * Input to the TTM_FENCE_FINISH ioctl.
++ */
++
++struct ttm_fence_finish_req {
++      uint32_t handle;
++      uint32_t fence_type;
++      uint32_t mode;
++      uint32_t pad64;
++};
++
++union ttm_fence_finish_arg {
++      struct ttm_fence_finish_req req;
++      struct ttm_fence_rep rep;
++};
++
++/**
++ * struct ttm_fence_unref_arg
++ *
++ * @handle: Handle to the fence object.
++ *
++ * Argument to the TTM_FENCE_UNREF ioctl.
++ */
++
++struct ttm_fence_unref_arg {
++      uint32_t handle;
++      uint32_t pad64;
++};
++
++/*
++ * Ioctl offsets frome extenstion start.
++ */
++
++#define TTM_FENCE_SIGNALED 0x01
++#define TTM_FENCE_FINISH   0x02
++#define TTM_FENCE_UNREF    0x03
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_lock.c b/drivers/gpu/drm/psb/ttm/ttm_lock.c
+new file mode 100644
+index 0000000..a3b503f
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_lock.c
+@@ -0,0 +1,162 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2007-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellström <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include "ttm/ttm_lock.h"
++#include <asm/atomic.h>
++#include <linux/errno.h>
++#include <linux/wait.h>
++#include <linux/sched.h>
++
++void ttm_lock_init(struct ttm_lock *lock)
++{
++      init_waitqueue_head(&lock->queue);
++      atomic_set(&lock->write_lock_pending, 0);
++      atomic_set(&lock->readers, 0);
++      lock->kill_takers = false;
++      lock->signal = SIGKILL;
++}
++
++void ttm_read_unlock(struct ttm_lock *lock)
++{
++      if (atomic_dec_and_test(&lock->readers))
++              wake_up_all(&lock->queue);
++}
++
++int ttm_read_lock(struct ttm_lock *lock, bool interruptible)
++{
++      while (unlikely(atomic_read(&lock->write_lock_pending) != 0)) {
++              int ret;
++
++              if (!interruptible) {
++                      wait_event(lock->queue,
++                                 atomic_read(&lock->write_lock_pending) == 0);
++                      continue;
++              }
++              ret = wait_event_interruptible
++                  (lock->queue, atomic_read(&lock->write_lock_pending) == 0);
++              if (ret)
++                      return -ERESTART;
++      }
++
++      while (unlikely(!atomic_add_unless(&lock->readers, 1, -1))) {
++              int ret;
++              if (!interruptible) {
++                      wait_event(lock->queue,
++                                 atomic_read(&lock->readers) != -1);
++                      continue;
++              }
++              ret = wait_event_interruptible
++                  (lock->queue, atomic_read(&lock->readers) != -1);
++              if (ret)
++                      return -ERESTART;
++      }
++
++      if (unlikely(lock->kill_takers)) {
++              send_sig(lock->signal, current, 0);
++              ttm_read_unlock(lock);
++              return -ERESTART;
++      }
++
++      return 0;
++}
++
++static int __ttm_write_unlock(struct ttm_lock *lock)
++{
++      if (unlikely(atomic_cmpxchg(&lock->readers, -1, 0) != -1))
++              return -EINVAL;
++      wake_up_all(&lock->queue);
++      return 0;
++}
++
++static void ttm_write_lock_remove(struct ttm_base_object **p_base)
++{
++      struct ttm_base_object *base = *p_base;
++      struct ttm_lock *lock = container_of(base, struct ttm_lock, base);
++      int ret;
++
++      *p_base = NULL;
++      ret = __ttm_write_unlock(lock);
++      BUG_ON(ret != 0);
++}
++
++int ttm_write_lock(struct ttm_lock *lock,
++                 bool interruptible,
++                 struct ttm_object_file *tfile)
++{
++      int ret = 0;
++
++      atomic_inc(&lock->write_lock_pending);
++
++      while (unlikely(atomic_cmpxchg(&lock->readers, 0, -1) != 0)) {
++              if (!interruptible) {
++                      wait_event(lock->queue,
++                                 atomic_read(&lock->readers) == 0);
++                      continue;
++              }
++              ret = wait_event_interruptible
++                  (lock->queue, atomic_read(&lock->readers) == 0);
++
++              if (ret) {
++                      if (atomic_dec_and_test(&lock->write_lock_pending))
++                              wake_up_all(&lock->queue);
++                      return -ERESTART;
++              }
++      }
++
++      if (atomic_dec_and_test(&lock->write_lock_pending))
++              wake_up_all(&lock->queue);
++
++      if (unlikely(lock->kill_takers)) {
++              send_sig(lock->signal, current, 0);
++              __ttm_write_unlock(lock);
++              return -ERESTART;
++      }
++
++      /*
++       * Add a base-object, the destructor of which will
++       * make sure the lock is released if the client dies
++       * while holding it.
++       */
++
++      ret = ttm_base_object_init(tfile, &lock->base, false,
++                                 ttm_lock_type, &ttm_write_lock_remove, NULL);
++      if (ret)
++              (void)__ttm_write_unlock(lock);
++
++      return ret;
++}
++
++int ttm_write_unlock(struct ttm_lock *lock, struct ttm_object_file *tfile)
++{
++      return ttm_ref_object_base_unref(tfile,
++                                       lock->base.hash.key, TTM_REF_USAGE);
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_lock.h b/drivers/gpu/drm/psb/ttm/ttm_lock.h
+new file mode 100644
+index 0000000..0169ad7
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_lock.h
+@@ -0,0 +1,181 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2007-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++/** @file ttm_lock.h
++ * This file implements a simple replacement for the buffer manager use
++ * of the DRM heavyweight hardware lock.
++ * The lock is a read-write lock. Taking it in read mode is fast, and
++ * intended for in-kernel use only.
++ * Taking it in write mode is slow.
++ *
++ * The write mode is used only when there is a need to block all
++ * user-space processes from validating buffers.
++ * It's allowed to leave kernel space with the write lock held.
++ * If a user-space process dies while having the write-lock,
++ * it will be released during the file descriptor release.
++ *
++ * The read lock is typically placed at the start of an IOCTL- or
++ * user-space callable function that may end up allocating a memory area.
++ * This includes setstatus, super-ioctls and faults; the latter may move
++ * unmappable regions to mappable. It's a bug to leave kernel space with the
++ * read lock held.
++ *
++ * Both read- and write lock taking is interruptible for low signal-delivery
++ * latency. The locking functions will return -ERESTART if interrupted by a
++ * signal.
++ *
++ * Locking order: The lock should be taken BEFORE any TTM mutexes
++ * or spinlocks.
++ *
++ * Typical usages:
++ * a) VT-switching, when we want to clean VRAM and perhaps AGP. The lock
++ * stops it from being repopulated.
++ * b) out-of-VRAM or out-of-aperture space, in which case the process
++ * receiving the out-of-space notification may take the lock in write mode
++ * and evict all buffers prior to start validating its own buffers.
++ */
++
++#ifndef _TTM_LOCK_H_
++#define _TTM_LOCK_H_
++
++#include "ttm_object.h"
++#include <linux/wait.h>
++#include <asm/atomic.h>
++
++/**
++ * struct ttm_lock
++ *
++ * @base: ttm base object used solely to release the lock if the client
++ * holding the lock dies.
++ * @queue: Queue for processes waiting for lock change-of-status.
++ * @write_lock_pending: Flag indicating that a write-lock is pending. Avoids
++ * write lock starvation.
++ * @readers: The lock status: A negative number indicates that a write lock is
++ * held. Positive values indicate number of concurrent readers.
++ */
++
++struct ttm_lock {
++      struct ttm_base_object base;
++      wait_queue_head_t queue;
++      atomic_t write_lock_pending;
++      atomic_t readers;
++      bool kill_takers;
++      int signal;
++};
++
++/**
++ * ttm_lock_init
++ *
++ * @lock: Pointer to a struct ttm_lock
++ * Initializes the lock.
++ */
++extern void ttm_lock_init(struct ttm_lock *lock);
++
++/**
++ * ttm_read_unlock
++ *
++ * @lock: Pointer to a struct ttm_lock
++ *
++ * Releases a read lock.
++ */
++
++extern void ttm_read_unlock(struct ttm_lock *lock);
++
++/**
++ * ttm_read_unlock
++ *
++ * @lock: Pointer to a struct ttm_lock
++ * @interruptible: Interruptible sleeping while waiting for a lock.
++ *
++ * Takes the lock in read mode.
++ * Returns:
++ * -ERESTART If interrupted by a signal and interruptible is true.
++ */
++
++extern int ttm_read_lock(struct ttm_lock *lock, bool interruptible);
++
++/**
++ * ttm_write_lock
++ *
++ * @lock: Pointer to a struct ttm_lock
++ * @interruptible: Interruptible sleeping while waiting for a lock.
++ * @tfile: Pointer to a struct ttm_object_file used to identify the user-space
++ * application taking the lock.
++ *
++ * Takes the lock in write mode.
++ * Returns:
++ * -ERESTART If interrupted by a signal and interruptible is true.
++ * -ENOMEM: Out of memory when locking.
++ */
++extern int ttm_write_lock(struct ttm_lock *lock, bool interruptible,
++                        struct ttm_object_file *tfile);
++
++/**
++ * ttm_write_unlock
++ *
++ * @lock: Pointer to a struct ttm_lock
++ * @tfile: Pointer to a struct ttm_object_file used to identify the user-space
++ * application taking the lock.
++ *
++ * Releases a write lock.
++ * Returns:
++ * -EINVAL If the lock was not held.
++ */
++extern int ttm_write_unlock(struct ttm_lock *lock,
++                          struct ttm_object_file *tfile);
++
++/**
++ * ttm_lock_set_kill
++ *
++ * @lock: Pointer to a struct ttm_lock
++ * @val: Boolean whether to kill processes taking the lock.
++ * @signal: Signal to send to the process taking the lock.
++ *
++ * The kill-when-taking-lock functionality is used to kill processes that keep
++ * on using the TTM functionality when its resources has been taken down, for
++ * example when the X server exits. A typical sequence would look like this:
++ * - X server takes lock in write mode.
++ * - ttm_lock_set_kill() is called with @val set to true.
++ * - As part of X server exit, TTM resources are taken down.
++ * - X server releases the lock on file release.
++ * - Another dri client wants to render, takes the lock and is killed.
++ *
++ */
++
++static inline void ttm_lock_set_kill(struct ttm_lock *lock, bool val, int signal)
++{
++      lock->kill_takers = val;
++      if (val)
++              lock->signal = signal;
++}
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_memory.c b/drivers/gpu/drm/psb/ttm/ttm_memory.c
+new file mode 100644
+index 0000000..75df380
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_memory.c
+@@ -0,0 +1,232 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++#include "ttm/ttm_memory.h"
++#include <linux/spinlock.h>
++#include <linux/sched.h>
++#include <linux/wait.h>
++#include <linux/mm.h>
++
++#define TTM_MEMORY_ALLOC_RETRIES 4
++
++/**
++ * At this point we only support a single shrink callback.
++ * Extend this if needed, perhaps using a linked list of callbacks.
++ * Note that this function is reentrant:
++ * many threads may try to swap out at any given time.
++ */
++
++static void ttm_shrink(struct ttm_mem_global *glob, bool from_workqueue,
++                     uint64_t extra)
++{
++      int ret;
++      struct ttm_mem_shrink *shrink;
++      uint64_t target;
++      uint64_t total_target;
++
++      spin_lock(&glob->lock);
++      if (glob->shrink == NULL)
++              goto out;
++
++      if (from_workqueue) {
++              target = glob->swap_limit;
++              total_target = glob->total_memory_swap_limit;
++      } else if (capable(CAP_SYS_ADMIN)) {
++              total_target = glob->emer_total_memory;
++              target = glob->emer_memory;
++      } else {
++              total_target = glob->max_total_memory;
++              target = glob->max_memory;
++      }
++
++      total_target = (extra >= total_target) ? 0: total_target - extra;       
++      target = (extra >= target) ? 0: target - extra;
++
++      while (glob->used_memory > target ||
++             glob->used_total_memory > total_target) {
++              shrink = glob->shrink;
++              spin_unlock(&glob->lock);
++              ret = shrink->do_shrink(shrink);
++              spin_lock(&glob->lock);
++              if (unlikely(ret != 0))
++                      goto out;
++      }
++      out:
++      spin_unlock(&glob->lock);
++}
++
++static void ttm_shrink_work(struct work_struct *work)
++{
++      struct ttm_mem_global *glob =
++          container_of(work, struct ttm_mem_global, work);
++
++      ttm_shrink(glob, true, 0ULL);
++}
++
++int ttm_mem_global_init(struct ttm_mem_global *glob)
++{
++      struct sysinfo si;
++      uint64_t mem;
++
++      spin_lock_init(&glob->lock);
++      glob->swap_queue = create_singlethread_workqueue("ttm_swap");
++      INIT_WORK(&glob->work, ttm_shrink_work);
++      init_waitqueue_head(&glob->queue);
++
++      si_meminfo(&si);
++
++      mem = si.totalram - si.totalhigh;
++      mem *= si.mem_unit;
++
++      glob->max_memory = mem >> 1;
++      glob->emer_memory = glob->max_memory + (mem >> 2);
++      glob->swap_limit = glob->max_memory - (mem >> 5);
++      glob->used_memory = 0;
++      glob->used_total_memory = 0;
++      glob->shrink = NULL;
++
++      mem = si.totalram;
++      mem *= si.mem_unit;
++
++      glob->max_total_memory = mem >> 1;
++      glob->emer_total_memory = glob->max_total_memory + (mem >> 2);
++      glob->total_memory_swap_limit = glob->max_total_memory - (mem >> 5);
++
++      printk(KERN_INFO "TTM available graphics memory: %llu MiB\n",
++             glob->max_total_memory >> 20);
++      printk(KERN_INFO "TTM available object memory: %llu MiB\n",
++             glob->max_memory >> 20);
++      printk(KERN_INFO "TTM available swap breakpoint: %llu MiB\n",
++             glob->swap_limit >> 20);
++
++      return 0;
++}
++
++void ttm_mem_global_release(struct ttm_mem_global *glob)
++{
++      printk(KERN_INFO "Used total memory is %llu bytes.\n",
++             (unsigned long long)glob->used_total_memory);
++      flush_workqueue(glob->swap_queue);
++      destroy_workqueue(glob->swap_queue);
++      glob->swap_queue = NULL;
++}
++
++static inline void ttm_check_swapping(struct ttm_mem_global *glob)
++{
++      bool needs_swapping;
++
++      spin_lock(&glob->lock);
++      needs_swapping = (glob->used_memory > glob->swap_limit ||
++                        glob->used_total_memory >
++                        glob->total_memory_swap_limit);
++      spin_unlock(&glob->lock);
++
++      if (unlikely(needs_swapping))
++              (void)queue_work(glob->swap_queue, &glob->work);
++
++}
++
++void ttm_mem_global_free(struct ttm_mem_global *glob,
++                       uint64_t amount, bool himem)
++{
++      spin_lock(&glob->lock);
++      glob->used_total_memory -= amount;
++      if (!himem)
++              glob->used_memory -= amount;
++      wake_up_all(&glob->queue);
++      spin_unlock(&glob->lock);
++}
++
++static int ttm_mem_global_reserve(struct ttm_mem_global *glob,
++                                uint64_t amount, bool himem, bool reserve)
++{
++      uint64_t limit;
++      uint64_t lomem_limit;
++      int ret = -ENOMEM;
++
++      spin_lock(&glob->lock);
++
++      if (capable(CAP_SYS_ADMIN)) {
++              limit = glob->emer_total_memory;
++              lomem_limit = glob->emer_memory;
++      } else {
++              limit = glob->max_total_memory;
++              lomem_limit = glob->max_memory;
++      }
++
++      if (unlikely(glob->used_total_memory + amount > limit))
++              goto out_unlock;
++      if (unlikely(!himem && glob->used_memory + amount > lomem_limit))
++              goto out_unlock;
++
++      if (reserve) {
++              glob->used_total_memory += amount;
++              if (!himem)
++                      glob->used_memory += amount;
++      }
++      ret = 0;
++      out_unlock:
++      spin_unlock(&glob->lock);
++      ttm_check_swapping(glob);
++
++      return ret;
++}
++
++int ttm_mem_global_alloc(struct ttm_mem_global *glob, uint64_t memory,
++                       bool no_wait, bool interruptible, bool himem)
++{
++      int count = TTM_MEMORY_ALLOC_RETRIES;
++
++      while (unlikely(ttm_mem_global_reserve(glob, memory, himem, true) != 0)) {
++              if (no_wait)
++                      return -ENOMEM;
++              if (unlikely(count-- == 0))
++                      return -ENOMEM;
++              ttm_shrink(glob, false, memory + (memory >> 2) + 16);
++      }
++
++      return 0;
++}
++
++size_t ttm_round_pot(size_t size)
++{
++      if ((size & (size - 1)) == 0)
++              return size;
++      else if (size > PAGE_SIZE)
++              return PAGE_ALIGN(size);
++      else {
++              size_t tmp_size = 4;
++
++              while (tmp_size < size)
++                      tmp_size <<= 1;
++
++              return tmp_size;
++      }
++      return 0;
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_memory.h b/drivers/gpu/drm/psb/ttm/ttm_memory.h
+new file mode 100644
+index 0000000..9bff60f
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_memory.h
+@@ -0,0 +1,154 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++
++#ifndef TTM_MEMORY_H
++#define TTM_MEMORY_H
++
++#include <linux/workqueue.h>
++#include <linux/spinlock.h>
++#include <linux/wait.h>
++
++/**
++ * struct ttm_mem_shrink - callback to shrink TTM memory usage.
++ *
++ * @do_shrink: The callback function.
++ *
++ * Arguments to the do_shrink functions are intended to be passed using
++ * inheritance. That is, the argument class derives from struct ttm_mem_srink,
++ * and can be accessed using container_of().
++ */
++
++struct ttm_mem_shrink {
++      int (*do_shrink) (struct ttm_mem_shrink *);
++};
++
++/**
++ * struct ttm_mem_global - Global memory accounting structure.
++ *
++ * @shrink: A single callback to shrink TTM memory usage. Extend this
++ * to a linked list to be able to handle multiple callbacks when needed.
++ * @swap_queue: A workqueue to handle shrinking in low memory situations. We
++ * need a separate workqueue since it will spend a lot of time waiting
++ * for the GPU, and this will otherwise block other workqueue tasks(?)
++ * At this point we use only a single-threaded workqueue.
++ * @work: The workqueue callback for the shrink queue.
++ * @queue: Wait queue for processes suspended waiting for memory.
++ * @lock: Lock to protect the @shrink - and the memory accounting members,
++ * that is, essentially the whole structure with some exceptions.
++ * @emer_memory: Lowmem memory limit available for root.
++ * @max_memory: Lowmem memory limit available for non-root.
++ * @swap_limit: Lowmem memory limit where the shrink workqueue kicks in.
++ * @used_memory: Currently used lowmem memory.
++ * @used_total_memory: Currently used total (lowmem + highmem) memory.
++ * @total_memory_swap_limit: Total memory limit where the shrink workqueue
++ * kicks in.
++ * @max_total_memory: Total memory available to non-root processes.
++ * @emer_total_memory: Total memory available to root processes.
++ *
++ * Note that this structure is not per device. It should be global for all
++ * graphics devices.
++ */
++
++struct ttm_mem_global {
++      struct ttm_mem_shrink *shrink;
++      struct workqueue_struct *swap_queue;
++      struct work_struct work;
++      wait_queue_head_t queue;
++      spinlock_t lock;
++      uint64_t emer_memory;
++      uint64_t max_memory;
++      uint64_t swap_limit;
++      uint64_t used_memory;
++      uint64_t used_total_memory;
++      uint64_t total_memory_swap_limit;
++      uint64_t max_total_memory;
++      uint64_t emer_total_memory;
++};
++
++/**
++ * ttm_mem_init_shrink - initialize a struct ttm_mem_shrink object
++ *
++ * @shrink: The object to initialize.
++ * @func: The callback function.
++ */
++
++static inline void ttm_mem_init_shrink(struct ttm_mem_shrink *shrink,
++                                     int (*func) (struct ttm_mem_shrink *))
++{
++      shrink->do_shrink = func;
++}
++
++/**
++ * ttm_mem_register_shrink - register a struct ttm_mem_shrink object.
++ *
++ * @glob: The struct ttm_mem_global object to register with.
++ * @shrink: An initialized struct ttm_mem_shrink object to register.
++ *
++ * Returns:
++ * -EBUSY: There's already a callback registered. (May change).
++ */
++
++static inline int ttm_mem_register_shrink(struct ttm_mem_global *glob,
++                                        struct ttm_mem_shrink *shrink)
++{
++      spin_lock(&glob->lock);
++      if (glob->shrink != NULL) {
++              spin_unlock(&glob->lock);
++              return -EBUSY;
++      }
++      glob->shrink = shrink;
++      spin_unlock(&glob->lock);
++      return 0;
++}
++
++/**
++ * ttm_mem_unregister_shrink - unregister a struct ttm_mem_shrink object.
++ *
++ * @glob: The struct ttm_mem_global object to unregister from.
++ * @shrink: A previously registert struct ttm_mem_shrink object.
++ *
++ */
++
++static inline void ttm_mem_unregister_shrink(struct ttm_mem_global *glob,
++                                           struct ttm_mem_shrink *shrink)
++{
++      spin_lock(&glob->lock);
++      BUG_ON(glob->shrink != shrink);
++      glob->shrink = NULL;
++      spin_unlock(&glob->lock);
++}
++
++extern int ttm_mem_global_init(struct ttm_mem_global *glob);
++extern void ttm_mem_global_release(struct ttm_mem_global *glob);
++extern int ttm_mem_global_alloc(struct ttm_mem_global *glob, uint64_t memory,
++                              bool no_wait, bool interruptible, bool himem);
++extern void ttm_mem_global_free(struct ttm_mem_global *glob,
++                              uint64_t amount, bool himem);
++extern size_t ttm_round_pot(size_t size);
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_object.c b/drivers/gpu/drm/psb/ttm/ttm_object.c
+new file mode 100644
+index 0000000..294a795
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_object.c
+@@ -0,0 +1,444 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++/** @file ttm_ref_object.c
++ *
++ * Base- and reference object implementation for the various
++ * ttm objects. Implements reference counting, minimal security checks
++ * and release on file close.
++ */
++
++/**
++ * struct ttm_object_file
++ *
++ * @tdev: Pointer to the ttm_object_device.
++ *
++ * @lock: Lock that protects the ref_list list and the
++ * ref_hash hash tables.
++ *
++ * @ref_list: List of ttm_ref_objects to be destroyed at
++ * file release.
++ *
++ * @ref_hash: Hash tables of ref objects, one per ttm_ref_type,
++ * for fast lookup of ref objects given a base object.
++ */
++
++#include "ttm/ttm_object.h"
++#include <linux/list.h>
++#include <linux/spinlock.h>
++#include <linux/slab.h>
++#include <asm/atomic.h>
++
++struct ttm_object_file {
++      struct ttm_object_device *tdev;
++      rwlock_t lock;
++      struct list_head ref_list;
++      struct drm_open_hash ref_hash[TTM_REF_NUM];
++      struct kref refcount;
++};
++
++/**
++ * struct ttm_object_device
++ *
++ * @object_lock: lock that protects the object_hash hash table.
++ *
++ * @object_hash: hash table for fast lookup of object global names.
++ *
++ * @object_count: Per device object count.
++ *
++ * This is the per-device data structure needed for ttm object management.
++ */
++
++struct ttm_object_device {
++      rwlock_t object_lock;
++      struct drm_open_hash object_hash;
++      atomic_t object_count;
++      struct ttm_mem_global *mem_glob;
++};
++
++/**
++ * struct ttm_ref_object
++ *
++ * @hash: Hash entry for the per-file object reference hash.
++ *
++ * @head: List entry for the per-file list of ref-objects.
++ *
++ * @kref: Ref count.
++ *
++ * @obj: Base object this ref object is referencing.
++ *
++ * @ref_type: Type of ref object.
++ *
++ * This is similar to an idr object, but it also has a hash table entry
++ * that allows lookup with a pointer to the referenced object as a key. In
++ * that way, one can easily detect whether a base object is referenced by
++ * a particular ttm_object_file. It also carries a ref count to avoid creating
++ * multiple ref objects if a ttm_object_file references the same base object more
++ * than once.
++ */
++
++struct ttm_ref_object {
++      struct drm_hash_item hash;
++      struct list_head head;
++      struct kref kref;
++      struct ttm_base_object *obj;
++      enum ttm_ref_type ref_type;
++      struct ttm_object_file *tfile;
++};
++
++static inline struct ttm_object_file *
++ttm_object_file_ref(struct ttm_object_file *tfile)
++{
++      kref_get(&tfile->refcount);
++      return tfile;
++}
++
++static void ttm_object_file_destroy(struct kref *kref)
++{
++      struct ttm_object_file *tfile =
++              container_of(kref, struct ttm_object_file, refcount);
++
++//    printk(KERN_INFO "Freeing 0x%08lx\n", (unsigned long) tfile);
++      kfree(tfile);
++}
++
++
++static inline void ttm_object_file_unref(struct ttm_object_file **p_tfile)
++{
++      struct ttm_object_file *tfile = *p_tfile;
++
++      *p_tfile = NULL;
++      kref_put(&tfile->refcount, ttm_object_file_destroy);
++}
++
++
++int ttm_base_object_init(struct ttm_object_file *tfile,
++                       struct ttm_base_object *base,
++                       bool shareable,
++                       enum ttm_object_type object_type,
++                       void (*refcount_release) (struct ttm_base_object **),
++                       void (*ref_obj_release) (struct ttm_base_object *,
++                                                enum ttm_ref_type ref_type))
++{
++      struct ttm_object_device *tdev = tfile->tdev;
++      int ret;
++
++      base->shareable = shareable;
++      base->tfile = ttm_object_file_ref(tfile);
++      base->refcount_release = refcount_release;
++      base->ref_obj_release = ref_obj_release;
++      base->object_type = object_type;
++      write_lock(&tdev->object_lock);
++      kref_init(&base->refcount);
++      ret = drm_ht_just_insert_please(&tdev->object_hash,
++                                      &base->hash,
++                                      (unsigned long)base, 31, 0, 0);
++      write_unlock(&tdev->object_lock);
++      if (unlikely(ret != 0))
++              goto out_err0;
++
++      ret = ttm_ref_object_add(tfile, base, TTM_REF_USAGE, NULL);
++      if (unlikely(ret != 0))
++              goto out_err1;
++
++      ttm_base_object_unref(&base);
++
++      return 0;
++      out_err1:
++      (void)drm_ht_remove_item(&tdev->object_hash, &base->hash);
++      out_err0:
++      return ret;
++}
++
++static void ttm_release_base(struct kref *kref)
++{
++      struct ttm_base_object *base =
++          container_of(kref, struct ttm_base_object, refcount);
++      struct ttm_object_device *tdev = base->tfile->tdev;
++
++      (void)drm_ht_remove_item(&tdev->object_hash, &base->hash);
++      write_unlock(&tdev->object_lock);
++      if (base->refcount_release) {
++              ttm_object_file_unref(&base->tfile);
++              base->refcount_release(&base);
++      }
++      write_lock(&tdev->object_lock);
++}
++
++void ttm_base_object_unref(struct ttm_base_object **p_base)
++{
++      struct ttm_base_object *base = *p_base;
++      struct ttm_object_device *tdev = base->tfile->tdev;
++
++      //      printk(KERN_INFO "TTM base object unref.\n");
++      *p_base = NULL;
++
++      /*
++       * Need to take the lock here to avoid racing with
++       * users trying to look up the object.
++       */
++
++      write_lock(&tdev->object_lock);
++      (void)kref_put(&base->refcount, &ttm_release_base);
++      write_unlock(&tdev->object_lock);
++}
++
++struct ttm_base_object *ttm_base_object_lookup(struct ttm_object_file *tfile,
++                                             uint32_t key)
++{
++      struct ttm_object_device *tdev = tfile->tdev;
++      struct ttm_base_object *base;
++      struct drm_hash_item *hash;
++      int ret;
++
++      read_lock(&tdev->object_lock);
++      ret = drm_ht_find_item(&tdev->object_hash, key, &hash);
++
++      if (likely(ret == 0)) {
++              base = drm_hash_entry(hash, struct ttm_base_object, hash);
++              kref_get(&base->refcount);
++      }
++      read_unlock(&tdev->object_lock);
++
++      if (unlikely(ret != 0))
++              return NULL;
++
++      if (tfile != base->tfile && !base->shareable) {
++              printk(KERN_ERR "Attempted access of non-shareable object.\n");
++              ttm_base_object_unref(&base);
++              return NULL;
++      }
++
++      return base;
++}
++
++int ttm_ref_object_add(struct ttm_object_file *tfile,
++                     struct ttm_base_object *base,
++                     enum ttm_ref_type ref_type, bool *existed)
++{
++      struct drm_open_hash *ht = &tfile->ref_hash[ref_type];
++      struct ttm_ref_object *ref;
++      struct drm_hash_item *hash;
++      struct ttm_mem_global *mem_glob = tfile->tdev->mem_glob;
++      int ret = -EINVAL;
++
++      if (existed != NULL)
++              *existed = true;
++
++      while (ret == -EINVAL) {
++              read_lock(&tfile->lock);
++              ret = drm_ht_find_item(ht, base->hash.key, &hash);
++
++              if (ret == 0) {
++                      ref = drm_hash_entry(hash, struct ttm_ref_object, hash);
++                      kref_get(&ref->kref);
++                      read_unlock(&tfile->lock);
++                      break;
++              }
++
++              read_unlock(&tfile->lock);
++              ret = ttm_mem_global_alloc(mem_glob, sizeof(*ref), false, false, false);
++              if (unlikely(ret != 0))
++                      return ret;
++              ref = kmalloc(sizeof(*ref), GFP_KERNEL);
++              if (unlikely(ref == NULL)) {
++                      ttm_mem_global_free(mem_glob, sizeof(*ref), false);
++                      return -ENOMEM;
++              }
++
++              ref->hash.key = base->hash.key;
++              ref->obj = base;
++              ref->tfile = tfile;
++              ref->ref_type = ref_type;
++              kref_init(&ref->kref);
++
++              write_lock(&tfile->lock);
++              ret = drm_ht_insert_item(ht, &ref->hash);
++
++              if (likely(ret == 0)) {
++                      list_add_tail(&ref->head, &tfile->ref_list);
++                      kref_get(&base->refcount);
++                      write_unlock(&tfile->lock);
++                      if (existed != NULL)
++                              *existed = false;
++                      break;
++              }
++
++              write_unlock(&tfile->lock);
++              BUG_ON(ret != -EINVAL);
++
++              ttm_mem_global_free(mem_glob, sizeof(*ref), false);
++              kfree(ref);
++      }
++
++      return ret;
++}
++
++static void ttm_ref_object_release(struct kref *kref)
++{
++      struct ttm_ref_object *ref =
++          container_of(kref, struct ttm_ref_object, kref);
++      struct ttm_base_object *base = ref->obj;
++      struct ttm_object_file *tfile = ref->tfile;
++      struct drm_open_hash *ht;
++      struct ttm_mem_global *mem_glob = tfile->tdev->mem_glob;
++
++      ht = &tfile->ref_hash[ref->ref_type];
++      (void)drm_ht_remove_item(ht, &ref->hash);
++      list_del(&ref->head);
++      write_unlock(&tfile->lock);
++
++      if (ref->ref_type != TTM_REF_USAGE && base->ref_obj_release)
++              base->ref_obj_release(base, ref->ref_type);
++
++      ttm_base_object_unref(&ref->obj);
++      ttm_mem_global_free(mem_glob, sizeof(*ref), false);
++      kfree(ref);
++      write_lock(&tfile->lock);
++}
++
++int ttm_ref_object_base_unref(struct ttm_object_file *tfile,
++                            unsigned long key, enum ttm_ref_type ref_type)
++{
++      struct drm_open_hash *ht = &tfile->ref_hash[ref_type];
++      struct ttm_ref_object *ref;
++      struct drm_hash_item *hash;
++      int ret;
++
++      write_lock(&tfile->lock);
++      ret = drm_ht_find_item(ht, key, &hash);
++      if (unlikely(ret != 0)) {
++              write_unlock(&tfile->lock);
++              return -EINVAL;
++      }
++      ref = drm_hash_entry(hash, struct ttm_ref_object, hash);
++      kref_put(&ref->kref, ttm_ref_object_release);
++      write_unlock(&tfile->lock);
++      return 0;
++}
++
++void ttm_object_file_release(struct ttm_object_file **p_tfile)
++{
++      struct ttm_ref_object *ref;
++      struct list_head *list;
++      unsigned int i;
++      struct ttm_object_file *tfile = *p_tfile;
++
++      *p_tfile = NULL;
++      write_lock(&tfile->lock);
++
++      /*
++       * Since we release the lock within the loop, we have to
++       * restart it from the beginning each time.
++       */
++
++      while (!list_empty(&tfile->ref_list)) {
++              list = tfile->ref_list.next;
++              ref = list_entry(list, struct ttm_ref_object, head);
++              ttm_ref_object_release(&ref->kref);
++      }
++
++      for (i = 0; i < TTM_REF_NUM; ++i) {
++              drm_ht_remove(&tfile->ref_hash[i]);
++      }
++
++      write_unlock(&tfile->lock);
++      ttm_object_file_unref(&tfile);
++}
++
++struct ttm_object_file *ttm_object_file_init(struct ttm_object_device *tdev,
++                                           unsigned int hash_order)
++{
++      struct ttm_object_file *tfile = kmalloc(sizeof(*tfile), GFP_KERNEL);
++      unsigned int i;
++      unsigned int j = 0;
++      int ret;
++
++      if (unlikely(tfile == NULL))
++              return NULL;
++
++      rwlock_init(&tfile->lock);
++      tfile->tdev = tdev;
++      kref_init(&tfile->refcount);
++      INIT_LIST_HEAD(&tfile->ref_list);
++
++      for (i = 0; i < TTM_REF_NUM; ++i) {
++              ret = drm_ht_create(&tfile->ref_hash[i], hash_order);
++              if (ret) {
++                      j = i;
++                      goto out_err;
++              }
++      }
++
++      return tfile;
++      out_err:
++      for (i = 0; i < j; ++i) {
++              drm_ht_remove(&tfile->ref_hash[i]);
++      }
++      kfree(tfile);
++
++      return NULL;
++}
++
++struct ttm_object_device *ttm_object_device_init(struct ttm_mem_global
++                                               *mem_glob,
++                                               unsigned int hash_order)
++{
++      struct ttm_object_device *tdev = kmalloc(sizeof(*tdev), GFP_KERNEL);
++      int ret;
++
++      if (unlikely(tdev == NULL))
++              return NULL;
++
++      tdev->mem_glob = mem_glob;
++      rwlock_init(&tdev->object_lock);
++      atomic_set(&tdev->object_count, 0);
++      ret = drm_ht_create(&tdev->object_hash, hash_order);
++
++      if (likely(ret == 0))
++              return tdev;
++
++      kfree(tdev);
++      return NULL;
++}
++
++void ttm_object_device_release(struct ttm_object_device **p_tdev)
++{
++      struct ttm_object_device *tdev = *p_tdev;
++
++      *p_tdev = NULL;
++
++      write_lock(&tdev->object_lock);
++      drm_ht_remove(&tdev->object_hash);
++      write_unlock(&tdev->object_lock);
++
++      kfree(tdev);
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_object.h b/drivers/gpu/drm/psb/ttm/ttm_object.h
+new file mode 100644
+index 0000000..0925ac5
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_object.h
+@@ -0,0 +1,269 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++/** @file ttm_ref_object.h
++ *
++ * Base- and reference object implementation for the various
++ * ttm objects. Implements reference counting, minimal security checks
++ * and release on file close.
++ */
++
++#ifndef _TTM_OBJECT_H_
++#define _TTM_OBJECT_H_
++
++#include <linux/list.h>
++#include <drm/drm_hashtab.h>
++#include <linux/kref.h>
++#include <ttm/ttm_memory.h>
++
++/**
++ * enum ttm_ref_type
++ *
++ * Describes what type of reference a ref object holds.
++ *
++ * TTM_REF_USAGE is a simple refcount on a base object.
++ *
++ * TTM_REF_SYNCCPU_READ is a SYNCCPU_READ reference on a
++ * buffer object.
++ *
++ * TTM_REF_SYNCCPU_WRITE is a SYNCCPU_WRITE reference on a
++ * buffer object.
++ *
++ */
++
++enum ttm_ref_type {
++      TTM_REF_USAGE,
++      TTM_REF_SYNCCPU_READ,
++      TTM_REF_SYNCCPU_WRITE,
++      TTM_REF_NUM
++};
++
++/**
++ * enum ttm_object_type
++ *
++ * One entry per ttm object type.
++ * Device-specific types should use the
++ * ttm_driver_typex types.
++ */
++
++enum ttm_object_type {
++      ttm_fence_type,
++      ttm_buffer_type,
++      ttm_lock_type,
++      ttm_driver_type0 = 256,
++      ttm_driver_type1
++};
++
++struct ttm_object_file;
++struct ttm_object_device;
++
++/**
++ * struct ttm_base_object
++ *
++ * @hash: hash entry for the per-device object hash.
++ * @type: derived type this object is base class for.
++ * @shareable: Other ttm_object_files can access this object.
++ *
++ * @tfile: Pointer to ttm_object_file of the creator.
++ * NULL if the object was not created by a user request.
++ * (kernel object).
++ *
++ * @refcount: Number of references to this object, not
++ * including the hash entry. A reference to a base object can
++ * only be held by a ref object.
++ *
++ * @refcount_release: A function to be called when there are
++ * no more references to this object. This function should
++ * destroy the object (or make sure destruction eventually happens),
++ * and when it is called, the object has
++ * already been taken out of the per-device hash. The parameter
++ * "base" should be set to NULL by the function.
++ *
++ * @ref_obj_release: A function to be called when a reference object
++ * with another ttm_ref_type than TTM_REF_USAGE is deleted.
++ * this function may, for example, release a lock held by a user-space
++ * process.
++ *
++ * This struct is intended to be used as a base struct for objects that
++ * are visible to user-space. It provides a global name, race-safe
++ * access and refcounting, minimal access contol and hooks for unref actions.
++ */
++
++struct ttm_base_object {
++      struct drm_hash_item hash;
++      enum ttm_object_type object_type;
++      bool shareable;
++      struct ttm_object_file *tfile;
++      struct kref refcount;
++      void (*refcount_release) (struct ttm_base_object ** base);
++      void (*ref_obj_release) (struct ttm_base_object * base,
++                               enum ttm_ref_type ref_type);
++};
++
++/**
++ * ttm_base_object_init
++ *
++ * @tfile: Pointer to a struct ttm_object_file.
++ * @base: The struct ttm_base_object to initialize.
++ * @shareable: This object is shareable with other applcations.
++ * (different @tfile pointers.)
++ * @type: The object type.
++ * @refcount_release: See the struct ttm_base_object description.
++ * @ref_obj_release: See the struct ttm_base_object description.
++ *
++ * Initializes a struct ttm_base_object.
++ */
++
++extern int ttm_base_object_init(struct ttm_object_file *tfile,
++                              struct ttm_base_object *base,
++                              bool shareable,
++                              enum ttm_object_type type,
++                              void (*refcount_release) (struct ttm_base_object
++                                                        **),
++                              void (*ref_obj_release) (struct ttm_base_object
++                                                       *,
++                                                       enum ttm_ref_type
++                                                       ref_type));
++
++/**
++ * ttm_base_object_lookup
++ *
++ * @tfile: Pointer to a struct ttm_object_file.
++ * @key: Hash key
++ *
++ * Looks up a struct ttm_base_object with the key @key.
++ * Also verifies that the object is visible to the application, by
++ * comparing the @tfile argument and checking the object shareable flag.
++ */
++
++extern struct ttm_base_object *ttm_base_object_lookup(struct ttm_object_file
++                                                    *tfile, uint32_t key);
++
++/**
++ * ttm_base_object_unref
++ *
++ * @p_base: Pointer to a pointer referncing a struct ttm_base_object.
++ *
++ * Decrements the base object refcount and clears the pointer pointed to by
++ * p_base.
++ */
++
++extern void ttm_base_object_unref(struct ttm_base_object **p_base);
++
++/**
++ * ttm_ref_object_add.
++ *
++ * @tfile: A struct ttm_object_file representing the application owning the
++ * ref_object.
++ * @base: The base object to reference.
++ * @ref_type: The type of reference.
++ * @existed: Upon completion, indicates that an identical reference object
++ * already existed, and the refcount was upped on that object instead.
++ *
++ * Adding a ref object to a base object is basically like referencing the
++ * base object, but a user-space application holds the reference. When the
++ * file corresponding to @tfile is closed, all its reference objects are
++ * deleted. A reference object can have different types depending on what
++ * it's intended for. It can be refcounting to prevent object destruction,
++ * When user-space takes a lock, it can add a ref object to that lock to
++ * make sure the lock is released if the application dies. A ref object
++ * will hold a single reference on a base object.
++ */
++extern int ttm_ref_object_add(struct ttm_object_file *tfile,
++                            struct ttm_base_object *base,
++                            enum ttm_ref_type ref_type, bool *existed);
++/**
++ * ttm_ref_object_base_unref
++ *
++ * @key: Key representing the base object.
++ * @ref_type: Ref type of the ref object to be dereferenced.
++ *
++ * Unreference a ref object with type @ref_type
++ * on the base object identified by @key. If there are no duplicate
++ * references, the ref object will be destroyed and the base object
++ * will be unreferenced.
++ */
++extern int ttm_ref_object_base_unref(struct ttm_object_file *tfile,
++                                   unsigned long key,
++                                   enum ttm_ref_type ref_type);
++
++/**
++ * ttm_object_file_init - initialize a struct ttm_object file
++ *
++ * @tdev: A struct ttm_object device this file is initialized on.
++ * @hash_order: Order of the hash table used to hold the reference objects.
++ *
++ * This is typically called by the file_ops::open function.
++ */
++
++extern struct ttm_object_file *ttm_object_file_init(struct ttm_object_device
++                                                  *tdev,
++                                                  unsigned int hash_order);
++
++/**
++ * ttm_object_file_release - release data held by a ttm_object_file
++ *
++ * @p_tfile: Pointer to pointer to the ttm_object_file object to release.
++ * *p_tfile will be set to NULL by this function.
++ *
++ * Releases all data associated by a ttm_object_file.
++ * Typically called from file_ops::release. The caller must
++ * ensure that there are no concurrent users of tfile.
++ */
++
++extern void ttm_object_file_release(struct ttm_object_file **p_tfile);
++
++/**
++ * ttm_object device init - initialize a struct ttm_object_device
++ *
++ * @hash_order: Order of hash table used to hash the base objects.
++ *
++ * This function is typically called on device initialization to prepare
++ * data structures needed for ttm base and ref objects.
++ */
++
++extern struct ttm_object_device *ttm_object_device_init
++    (struct ttm_mem_global *mem_glob, unsigned int hash_order);
++
++/**
++ * ttm_object_device_release - release data held by a ttm_object_device
++ *
++ * @p_tdev: Pointer to pointer to the ttm_object_device object to release.
++ * *p_tdev will be set to NULL by this function.
++ *
++ * Releases all data associated by a ttm_object_device.
++ * Typically called from driver::unload before the destruction of the
++ * device private data structure.
++ */
++
++extern void ttm_object_device_release(struct ttm_object_device **p_tdev);
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_pat_compat.c b/drivers/gpu/drm/psb/ttm/ttm_pat_compat.c
+new file mode 100644
+index 0000000..701be0d
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_pat_compat.c
+@@ -0,0 +1,178 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2007-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include "ttm/ttm_pat_compat.h"
++#include <linux/version.h>
++#include <asm/page.h>
++#include <linux/spinlock.h>
++#include <asm/pgtable.h>
++
++#if (defined(CONFIG_X86) && !defined(CONFIG_X86_PAT))
++#include <asm/tlbflush.h>
++#include <asm/msr.h>
++#include <asm/system.h>
++#include <linux/notifier.h>
++#include <linux/cpu.h>
++
++#ifndef MSR_IA32_CR_PAT
++#define MSR_IA32_CR_PAT 0x0277
++#endif
++
++#ifndef _PAGE_PAT
++#define _PAGE_PAT 0x080
++#endif
++
++static int ttm_has_pat = 0;
++
++/*
++ * Used at resume-time when CPU-s are fired up.
++ */
++
++static void ttm_pat_ipi_handler(void *notused)
++{
++      u32 v1, v2;
++
++      rdmsr(MSR_IA32_CR_PAT, v1, v2);
++      v2 &= 0xFFFFFFF8;
++      v2 |= 0x00000001;
++      wbinvd();
++      wrmsr(MSR_IA32_CR_PAT, v1, v2);
++      wbinvd();
++      __flush_tlb_all();
++}
++
++static void ttm_pat_enable(void)
++{
++#if (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,27))
++      if (on_each_cpu(ttm_pat_ipi_handler, NULL, 1, 1) != 0) {
++#else
++      if (on_each_cpu(ttm_pat_ipi_handler, NULL, 1) != 0) {
++#endif
++              printk(KERN_ERR "Timed out setting up CPU PAT.\n");
++      }
++}
++
++void ttm_pat_resume(void)
++{
++      if (unlikely(!ttm_has_pat))
++              return;
++
++      ttm_pat_enable();
++}
++
++static int psb_cpu_callback(struct notifier_block *nfb,
++                          unsigned long action, void *hcpu)
++{
++      if (action == CPU_ONLINE) {
++              ttm_pat_resume();
++      }
++
++      return 0;
++}
++
++static struct notifier_block psb_nb = {
++      .notifier_call = psb_cpu_callback,
++      .priority = 1
++};
++
++/*
++ * Set i386 PAT entry PAT4 to Write-combining memory type on all processors.
++ */
++
++void ttm_pat_init(void)
++{
++      if (likely(ttm_has_pat))
++              return;
++
++      if (!boot_cpu_has(X86_FEATURE_PAT)) {
++              return;
++      }
++
++      ttm_pat_enable();
++
++      if (num_present_cpus() > 1)
++              register_cpu_notifier(&psb_nb);
++
++      ttm_has_pat = 1;
++}
++
++void ttm_pat_takedown(void)
++{
++      if (unlikely(!ttm_has_pat))
++              return;
++
++      if (num_present_cpus() > 1)
++              unregister_cpu_notifier(&psb_nb);
++
++      ttm_has_pat = 0;
++}
++
++pgprot_t pgprot_ttm_x86_wc(pgprot_t prot)
++{
++      if (likely(ttm_has_pat)) {
++              pgprot_val(prot) |= _PAGE_PAT;
++              return prot;
++      } else {
++              return pgprot_noncached(prot);
++      }
++}
++
++#else
++
++void ttm_pat_init(void)
++{
++}
++
++void ttm_pat_takedown(void)
++{
++}
++
++void ttm_pat_resume(void)
++{
++}
++
++#ifdef CONFIG_X86
++#include <asm/pat.h>
++
++pgprot_t pgprot_ttm_x86_wc(pgprot_t prot)
++{
++      uint32_t cache_bits = ((1) ? _PAGE_CACHE_WC : _PAGE_CACHE_UC_MINUS);
++
++      return __pgprot((pgprot_val(prot) & ~_PAGE_CACHE_MASK) | cache_bits);
++}
++#else
++pgprot_t pgprot_ttm_x86_wc(pgprot_t prot)
++{
++      BUG();
++}
++#endif
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_pat_compat.h b/drivers/gpu/drm/psb/ttm/ttm_pat_compat.h
+new file mode 100644
+index 0000000..d767570
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_pat_compat.h
+@@ -0,0 +1,41 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2007-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#ifndef _TTM_PAT_COMPAT_
++#define _TTM_PAT_COMPAT_
++#include <asm/page.h>
++#include <asm/pgtable_types.h>
++extern void ttm_pat_init(void);
++extern void ttm_pat_takedown(void);
++extern void ttm_pat_resume(void);
++extern pgprot_t pgprot_ttm_x86_wc(pgprot_t prot);
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_placement_common.h b/drivers/gpu/drm/psb/ttm/ttm_placement_common.h
+new file mode 100644
+index 0000000..13f3861
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_placement_common.h
+@@ -0,0 +1,98 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#ifndef _TTM_PL_COMMON_H_
++#define _TTM_PL_COMMON_H_
++/*
++ * Memory regions for data placement.
++ */
++
++#define TTM_PL_SYSTEM           0
++#define TTM_PL_TT               1
++#define TTM_PL_VRAM             2
++#define TTM_PL_PRIV0            3
++#define TTM_PL_PRIV1            4
++#define TTM_PL_PRIV2            5
++#define TTM_PL_PRIV3            6
++#define TTM_PL_PRIV4            7
++#define TTM_PL_PRIV5            8
++#define TTM_PL_CI             9
++#define TTM_PL_RAR            10
++#define TTM_PL_SWAPPED          15
++
++#define TTM_PL_FLAG_SYSTEM      (1 << TTM_PL_SYSTEM)
++#define TTM_PL_FLAG_TT          (1 << TTM_PL_TT)
++#define TTM_PL_FLAG_VRAM        (1 << TTM_PL_VRAM)
++#define TTM_PL_FLAG_PRIV0       (1 << TTM_PL_PRIV0)
++#define TTM_PL_FLAG_PRIV1       (1 << TTM_PL_PRIV1)
++#define TTM_PL_FLAG_PRIV2       (1 << TTM_PL_PRIV2)
++#define TTM_PL_FLAG_PRIV3       (1 << TTM_PL_PRIV3)
++#define TTM_PL_FLAG_PRIV4       (1 << TTM_PL_PRIV4)
++#define TTM_PL_FLAG_PRIV5       (1 << TTM_PL_PRIV5)
++#define TTM_PL_FLAG_CI                (1 << TTM_PL_CI)
++#define TTM_PL_FLAG_RAR               (1 << TTM_PL_RAR)
++#define TTM_PL_FLAG_SWAPPED     (1 << TTM_PL_SWAPPED)
++#define TTM_PL_MASK_MEM         0x0000FFFF
++
++/*
++ * Other flags that affects data placement.
++ * TTM_PL_FLAG_CACHED indicates cache-coherent mappings
++ * if available.
++ * TTM_PL_FLAG_SHARED means that another application may
++ * reference the buffer.
++ * TTM_PL_FLAG_NO_EVICT means that the buffer may never
++ * be evicted to make room for other buffers.
++ */
++
++#define TTM_PL_FLAG_CACHED      (1 << 16)
++#define TTM_PL_FLAG_UNCACHED    (1 << 17)
++#define TTM_PL_FLAG_WC          (1 << 18)
++#define TTM_PL_FLAG_SHARED      (1 << 20)
++#define TTM_PL_FLAG_NO_EVICT    (1 << 21)
++
++#define TTM_PL_MASK_CACHING     (TTM_PL_FLAG_CACHED | \
++                                 TTM_PL_FLAG_UNCACHED | \
++                                 TTM_PL_FLAG_WC)
++
++#define TTM_PL_MASK_MEMTYPE     (TTM_PL_MASK_MEM | TTM_PL_MASK_CACHING)
++
++/*
++ * Access flags to be used for CPU- and GPU- mappings.
++ * The idea is that the TTM synchronization mechanism will
++ * allow concurrent READ access and exclusive write access.
++ * Currently GPU- and CPU accesses are exclusive.
++ */
++
++#define TTM_ACCESS_READ         (1 << 0)
++#define TTM_ACCESS_WRITE        (1 << 1)
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_placement_user.c b/drivers/gpu/drm/psb/ttm/ttm_placement_user.c
+new file mode 100644
+index 0000000..68cbb08
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_placement_user.c
+@@ -0,0 +1,468 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include "ttm/ttm_placement_user.h"
++#include "ttm/ttm_bo_driver.h"
++#include "ttm/ttm_object.h"
++#include "ttm/ttm_userobj_api.h"
++#include "ttm/ttm_lock.h"
++
++struct ttm_bo_user_object {
++      struct ttm_base_object base;
++      struct ttm_buffer_object bo;
++};
++
++static size_t pl_bo_size = 0;
++
++static size_t ttm_pl_size(struct ttm_bo_device *bdev, unsigned long num_pages)
++{
++      size_t page_array_size =
++          (num_pages * sizeof(void *) + PAGE_SIZE - 1) & PAGE_MASK;
++
++      if (unlikely(pl_bo_size == 0)) {
++              pl_bo_size = bdev->ttm_bo_extra_size +
++                  ttm_round_pot(sizeof(struct ttm_bo_user_object));
++      }
++
++      return bdev->ttm_bo_size + 2 * page_array_size;
++}
++
++static struct ttm_bo_user_object *ttm_bo_user_lookup(struct ttm_object_file
++                                                   *tfile, uint32_t handle)
++{
++      struct ttm_base_object *base;
++
++      base = ttm_base_object_lookup(tfile, handle);
++      if (unlikely(base == NULL)) {
++              printk(KERN_ERR "Invalid buffer object handle 0x%08lx.\n",
++                     (unsigned long)handle);
++              return NULL;
++      }
++
++      if (unlikely(base->object_type != ttm_buffer_type)) {
++              ttm_base_object_unref(&base);
++              printk(KERN_ERR "Invalid buffer object handle 0x%08lx.\n",
++                     (unsigned long)handle);
++              return NULL;
++      }
++
++      return container_of(base, struct ttm_bo_user_object, base);
++}
++
++struct ttm_buffer_object *ttm_buffer_object_lookup(struct ttm_object_file
++                                                 *tfile, uint32_t handle)
++{
++      struct ttm_bo_user_object *user_bo;
++      struct ttm_base_object *base;
++
++      user_bo = ttm_bo_user_lookup(tfile, handle);
++      if (unlikely(user_bo == NULL))
++              return NULL;
++
++      (void)ttm_bo_reference(&user_bo->bo);
++      base = &user_bo->base;
++      ttm_base_object_unref(&base);
++      return &user_bo->bo;
++}
++
++static void ttm_bo_user_destroy(struct ttm_buffer_object *bo)
++{
++      struct ttm_bo_user_object *user_bo =
++          container_of(bo, struct ttm_bo_user_object, bo);
++
++      ttm_mem_global_free(bo->bdev->mem_glob, bo->acc_size, false);
++      kfree(user_bo);
++}
++
++static void ttm_bo_user_release(struct ttm_base_object **p_base)
++{
++      struct ttm_bo_user_object *user_bo;
++      struct ttm_base_object *base = *p_base;
++      struct ttm_buffer_object *bo;
++
++      *p_base = NULL;
++
++      if (unlikely(base == NULL))
++              return;
++
++      user_bo = container_of(base, struct ttm_bo_user_object, base);
++      bo = &user_bo->bo;
++      ttm_bo_unref(&bo);
++}
++
++static void ttm_bo_user_ref_release(struct ttm_base_object *base,
++                                  enum ttm_ref_type ref_type)
++{
++      struct ttm_bo_user_object *user_bo =
++          container_of(base, struct ttm_bo_user_object, base);
++      struct ttm_buffer_object *bo = &user_bo->bo;
++
++      switch (ref_type) {
++      case TTM_REF_SYNCCPU_WRITE:
++              ttm_bo_synccpu_write_release(bo);
++              break;
++      default:
++              BUG();
++      }
++}
++
++static void ttm_pl_fill_rep(struct ttm_buffer_object *bo,
++                          struct ttm_pl_rep *rep)
++{
++      struct ttm_bo_user_object *user_bo =
++          container_of(bo, struct ttm_bo_user_object, bo);
++
++      rep->gpu_offset = bo->offset;
++      rep->bo_size = bo->num_pages << PAGE_SHIFT;
++      rep->map_handle = bo->addr_space_offset;
++      rep->placement = bo->mem.flags;
++      rep->handle = user_bo->base.hash.key;
++      rep->sync_object_arg = (uint32_t) (unsigned long)bo->sync_obj_arg;
++}
++
++int ttm_pl_create_ioctl(struct ttm_object_file *tfile,
++                      struct ttm_bo_device *bdev,
++                      struct ttm_lock *lock, void *data)
++{
++      union ttm_pl_create_arg *arg = data;
++      struct ttm_pl_create_req *req = &arg->req;
++      struct ttm_pl_rep *rep = &arg->rep;
++      struct ttm_buffer_object *bo;
++      struct ttm_buffer_object *tmp;
++      struct ttm_bo_user_object *user_bo;
++      uint32_t flags;
++      int ret = 0;
++      struct ttm_mem_global *mem_glob = bdev->mem_glob;
++      size_t acc_size =
++          ttm_pl_size(bdev, (req->size + PAGE_SIZE - 1) >> PAGE_SHIFT);
++      ret = ttm_mem_global_alloc(mem_glob, acc_size, false, false, false);
++      if (unlikely(ret != 0))
++              return ret;
++
++      flags = req->placement;
++      user_bo = kzalloc(sizeof(*user_bo), GFP_KERNEL);
++      if (unlikely(user_bo == NULL)) {
++              ttm_mem_global_free(mem_glob, acc_size, false);
++              return -ENOMEM;
++      }
++
++      bo = &user_bo->bo;
++      ret = ttm_read_lock(lock, true);
++      if (unlikely(ret != 0)) {
++              ttm_mem_global_free(mem_glob, acc_size, false);
++              kfree(user_bo);
++              return ret;
++      }
++
++      ret = ttm_buffer_object_init(bdev, bo, req->size,
++                                   ttm_bo_type_device, flags,
++                                   req->page_alignment, 0, true,
++                                   NULL, acc_size, &ttm_bo_user_destroy);
++      ttm_read_unlock(lock);
++
++      /*
++       * Note that the ttm_buffer_object_init function
++       * would've called the destroy function on failure!!
++       */
++
++      if (unlikely(ret != 0))
++              goto out;
++
++      tmp = ttm_bo_reference(bo);
++      ret = ttm_base_object_init(tfile, &user_bo->base,
++                                 flags & TTM_PL_FLAG_SHARED,
++                                 ttm_buffer_type,
++                                 &ttm_bo_user_release,
++                                 &ttm_bo_user_ref_release);
++      if (unlikely(ret != 0))
++              goto out_err;
++
++      mutex_lock(&bo->mutex);
++      ttm_pl_fill_rep(bo, rep);
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unref(&bo);
++      out:
++      return 0;
++      out_err:
++      ttm_bo_unref(&tmp);
++      ttm_bo_unref(&bo);
++      return ret;
++}
++
++int ttm_pl_ub_create_ioctl(struct ttm_object_file *tfile,
++                         struct ttm_bo_device *bdev,
++                         struct ttm_lock *lock, void *data)
++{
++      union ttm_pl_create_ub_arg *arg = data;
++      struct ttm_pl_create_ub_req *req = &arg->req;
++      struct ttm_pl_rep *rep = &arg->rep;
++      struct ttm_buffer_object *bo;
++      struct ttm_buffer_object *tmp;
++      struct ttm_bo_user_object *user_bo;
++      uint32_t flags;
++      int ret = 0;
++      struct ttm_mem_global *mem_glob = bdev->mem_glob;
++      size_t acc_size =
++          ttm_pl_size(bdev, (req->size + PAGE_SIZE - 1) >> PAGE_SHIFT);
++      ret = ttm_mem_global_alloc(mem_glob, acc_size, false, false, false);
++      if (unlikely(ret != 0))
++              return ret;
++
++      flags = req->placement;
++      user_bo = kzalloc(sizeof(*user_bo), GFP_KERNEL);
++      if (unlikely(user_bo == NULL)) {
++              ttm_mem_global_free(mem_glob, acc_size, false);
++              return -ENOMEM;
++      }
++      ret = ttm_read_lock(lock, true);
++      if (unlikely(ret != 0)) {
++              ttm_mem_global_free(mem_glob, acc_size, false);
++              kfree(user_bo);
++              return ret;
++      }
++      bo = &user_bo->bo;
++      ret = ttm_buffer_object_init(bdev, bo, req->size,
++                                   ttm_bo_type_user, flags,
++                                   req->page_alignment, req->user_address,
++                                   true, NULL, acc_size, &ttm_bo_user_destroy);
++
++      /*
++       * Note that the ttm_buffer_object_init function
++       * would've called the destroy function on failure!!
++       */
++      ttm_read_unlock(lock);
++      if (unlikely(ret != 0))
++              goto out;
++
++      tmp = ttm_bo_reference(bo);
++      ret = ttm_base_object_init(tfile, &user_bo->base,
++                                 flags & TTM_PL_FLAG_SHARED,
++                                 ttm_buffer_type,
++                                 &ttm_bo_user_release,
++                                 &ttm_bo_user_ref_release);
++      if (unlikely(ret != 0))
++              goto out_err;
++
++      mutex_lock(&bo->mutex);
++      ttm_pl_fill_rep(bo, rep);
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unref(&bo);
++      out:
++      return 0;
++      out_err:
++      ttm_bo_unref(&tmp);
++      ttm_bo_unref(&bo);
++      return ret;
++}
++
++int ttm_pl_reference_ioctl(struct ttm_object_file *tfile, void *data)
++{
++      union ttm_pl_reference_arg *arg = data;
++      struct ttm_pl_rep *rep = &arg->rep;
++      struct ttm_bo_user_object *user_bo;
++      struct ttm_buffer_object *bo;
++      struct ttm_base_object *base;
++      int ret;
++
++      user_bo = ttm_bo_user_lookup(tfile, arg->req.handle);
++      if (unlikely(user_bo == NULL)) {
++              printk(KERN_ERR "Could not reference buffer object.\n");
++              return -EINVAL;
++      }
++
++      bo = &user_bo->bo;
++      ret = ttm_ref_object_add(tfile, &user_bo->base, TTM_REF_USAGE, NULL);
++      if (unlikely(ret != 0)) {
++              printk(KERN_ERR
++                     "Could not add a reference to buffer object.\n");
++              goto out;
++      }
++
++      mutex_lock(&bo->mutex);
++      ttm_pl_fill_rep(bo, rep);
++      mutex_unlock(&bo->mutex);
++
++      out:
++      base = &user_bo->base;
++      ttm_base_object_unref(&base);
++      return ret;
++}
++
++int ttm_pl_unref_ioctl(struct ttm_object_file *tfile, void *data)
++{
++      struct ttm_pl_reference_req *arg = data;
++
++      return ttm_ref_object_base_unref(tfile, arg->handle, TTM_REF_USAGE);
++}
++
++int ttm_pl_synccpu_ioctl(struct ttm_object_file *tfile, void *data)
++{
++      struct ttm_pl_synccpu_arg *arg = data;
++      struct ttm_bo_user_object *user_bo;
++      struct ttm_buffer_object *bo;
++      struct ttm_base_object *base;
++      bool existed;
++      int ret;
++
++      switch (arg->op) {
++      case TTM_PL_SYNCCPU_OP_GRAB:
++              user_bo = ttm_bo_user_lookup(tfile, arg->handle);
++              if (unlikely(user_bo == NULL)) {
++                      printk(KERN_ERR
++                             "Could not find buffer object for synccpu.\n");
++                      return -EINVAL;
++              }
++              bo = &user_bo->bo;
++              base = &user_bo->base;
++              ret = ttm_bo_synccpu_write_grab(bo,
++                                              arg->access_mode &
++                                              TTM_PL_SYNCCPU_MODE_NO_BLOCK);
++              if (unlikely(ret != 0)) {
++                      ttm_base_object_unref(&base);
++                      goto out;
++              }
++              ret = ttm_ref_object_add(tfile, &user_bo->base,
++                                       TTM_REF_SYNCCPU_WRITE, &existed);
++              if (existed || ret != 0)
++                      ttm_bo_synccpu_write_release(bo);
++              ttm_base_object_unref(&base);
++              break;
++      case TTM_PL_SYNCCPU_OP_RELEASE:
++              ret = ttm_ref_object_base_unref(tfile, arg->handle,
++                                              TTM_REF_SYNCCPU_WRITE);
++              break;
++      default:
++              ret = -EINVAL;
++              break;
++      }
++      out:
++      return ret;
++}
++
++int ttm_pl_setstatus_ioctl(struct ttm_object_file *tfile,
++                         struct ttm_lock *lock, void *data)
++{
++      union ttm_pl_setstatus_arg *arg = data;
++      struct ttm_pl_setstatus_req *req = &arg->req;
++      struct ttm_pl_rep *rep = &arg->rep;
++      struct ttm_buffer_object *bo;
++      struct ttm_bo_device *bdev;
++      int ret;
++
++      bo = ttm_buffer_object_lookup(tfile, req->handle);
++      if (unlikely(bo == NULL)) {
++              printk(KERN_ERR
++                     "Could not find buffer object for setstatus.\n");
++              return -EINVAL;
++      }
++
++      bdev = bo->bdev;
++
++      ret = ttm_read_lock(lock, true);
++      if (unlikely(ret != 0))
++              goto out_err0;
++
++      ret = ttm_bo_reserve(bo, true, false, false, 0);
++      if (unlikely(ret != 0))
++              goto out_err1;
++
++      ret = ttm_bo_wait_cpu(bo, false);
++      if (unlikely(ret != 0))
++              goto out_err2;
++
++      mutex_lock(&bo->mutex);
++      ret = ttm_bo_check_placement(bo, req->set_placement,
++                                   req->clr_placement);
++      if (unlikely(ret != 0))
++              goto out_err2;
++
++      bo->proposed_flags = (bo->proposed_flags | req->set_placement)
++          & ~req->clr_placement;
++      ret = ttm_buffer_object_validate(bo, true, false);
++      if (unlikely(ret != 0))
++              goto out_err2;
++
++      ttm_pl_fill_rep(bo, rep);
++      out_err2:
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unreserve(bo);
++      out_err1:
++      ttm_read_unlock(lock);
++      out_err0:
++      ttm_bo_unref(&bo);
++      return ret;
++}
++
++int ttm_pl_waitidle_ioctl(struct ttm_object_file *tfile, void *data)
++{
++      struct ttm_pl_waitidle_arg *arg = data;
++      struct ttm_buffer_object *bo;
++      int ret;
++
++      bo = ttm_buffer_object_lookup(tfile, arg->handle);
++      if (unlikely(bo == NULL)) {
++              printk(KERN_ERR "Could not find buffer object for waitidle.\n");
++              return -EINVAL;
++      }
++
++      ret =
++          ttm_bo_block_reservation(bo, true,
++                                   arg->mode & TTM_PL_WAITIDLE_MODE_NO_BLOCK);
++      if (unlikely(ret != 0))
++              goto out;
++      mutex_lock(&bo->mutex);
++      ret = ttm_bo_wait(bo,
++                        arg->mode & TTM_PL_WAITIDLE_MODE_LAZY,
++                        true, arg->mode & TTM_PL_WAITIDLE_MODE_NO_BLOCK);
++      mutex_unlock(&bo->mutex);
++      ttm_bo_unblock_reservation(bo);
++      out:
++      ttm_bo_unref(&bo);
++      return ret;
++}
++
++int ttm_pl_verify_access(struct ttm_buffer_object *bo,
++                       struct ttm_object_file *tfile)
++{
++      struct ttm_bo_user_object *ubo;
++
++      /*
++       * Check bo subclass.
++       */
++
++      if (unlikely(bo->destroy != &ttm_bo_user_destroy))
++              return -EPERM;
++
++      ubo = container_of(bo, struct ttm_bo_user_object, bo);
++      if (likely(ubo->base.shareable || ubo->base.tfile == tfile))
++              return 0;
++
++      return -EPERM;
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_placement_user.h b/drivers/gpu/drm/psb/ttm/ttm_placement_user.h
+new file mode 100644
+index 0000000..9f69cdc
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_placement_user.h
+@@ -0,0 +1,259 @@
++/**************************************************************************
++ *
++ * Copyright 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ **************************************************************************/
++/*
++ * Authors
++ * Thomas Hellström <thomas-at-tungstengraphics-dot-com>
++ */
++
++#ifndef _TTM_PLACEMENT_USER_H_
++#define _TTM_PLACEMENT_USER_H_
++
++#if !defined(__KERNEL__) && !defined(_KERNEL)
++#include <stdint.h>
++#else
++#include <linux/kernel.h>
++#endif
++
++#include "ttm/ttm_placement_common.h"
++
++#define TTM_PLACEMENT_MAJOR 0
++#define TTM_PLACEMENT_MINOR 1
++#define TTM_PLACEMENT_PL    0
++#define TTM_PLACEMENT_DATE  "080819"
++
++/**
++ * struct ttm_pl_create_req
++ *
++ * @size: The buffer object size.
++ * @placement: Flags that indicate initial acceptable
++ *  placement.
++ * @page_alignment: Required alignment in pages.
++ *
++ * Input to the TTM_BO_CREATE ioctl.
++ */
++
++struct ttm_pl_create_req {
++      uint64_t size;
++      uint32_t placement;
++      uint32_t page_alignment;
++};
++
++/**
++ * struct ttm_pl_create_ub_req
++ *
++ * @size: The buffer object size.
++ * @user_address: User-space address of the memory area that
++ * should be used to back the buffer object cast to 64-bit.
++ * @placement: Flags that indicate initial acceptable
++ *  placement.
++ * @page_alignment: Required alignment in pages.
++ *
++ * Input to the TTM_BO_CREATE_UB ioctl.
++ */
++
++struct ttm_pl_create_ub_req {
++      uint64_t size;
++      uint64_t user_address;
++      uint32_t placement;
++      uint32_t page_alignment;
++};
++
++/**
++ * struct ttm_pl_rep
++ *
++ * @gpu_offset: The current offset into the memory region used.
++ * This can be used directly by the GPU if there are no
++ * additional GPU mapping procedures used by the driver.
++ *
++ * @bo_size: Actual buffer object size.
++ *
++ * @map_handle: Offset into the device address space.
++ * Used for map, seek, read, write. This will never change
++ * during the lifetime of an object.
++ *
++ * @placement: Flag indicating the placement status of
++ * the buffer object using the TTM_PL flags above.
++ *
++ * @sync_object_arg: Used for user-space synchronization and
++ * depends on the synchronization model used. If fences are
++ * used, this is the buffer_object::fence_type_mask
++ *
++ * Output from the TTM_PL_CREATE and TTM_PL_REFERENCE, and
++ * TTM_PL_SETSTATUS ioctls.
++ */
++
++struct ttm_pl_rep {
++      uint64_t gpu_offset;
++      uint64_t bo_size;
++      uint64_t map_handle;
++      uint32_t placement;
++      uint32_t handle;
++      uint32_t sync_object_arg;
++      uint32_t pad64;
++};
++
++/**
++ * struct ttm_pl_setstatus_req
++ *
++ * @set_placement: Placement flags to set.
++ *
++ * @clr_placement: Placement flags to clear.
++ *
++ * @handle: The object handle
++ *
++ * Input to the TTM_PL_SETSTATUS ioctl.
++ */
++
++struct ttm_pl_setstatus_req {
++      uint32_t set_placement;
++      uint32_t clr_placement;
++      uint32_t handle;
++      uint32_t pad64;
++};
++
++/**
++ * struct ttm_pl_reference_req
++ *
++ * @handle: The object to put a reference on.
++ *
++ * Input to the TTM_PL_REFERENCE and the TTM_PL_UNREFERENCE ioctls.
++ */
++
++struct ttm_pl_reference_req {
++      uint32_t handle;
++      uint32_t pad64;
++};
++
++/*
++ * ACCESS mode flags for SYNCCPU.
++ *
++ * TTM_SYNCCPU_MODE_READ will guarantee that the GPU is not
++ * writing to the buffer.
++ *
++ * TTM_SYNCCPU_MODE_WRITE will guarantee that the GPU is not
++ * accessing the buffer.
++ *
++ * TTM_SYNCCPU_MODE_NO_BLOCK makes sure the call does not wait
++ * for GPU accesses to finish but return -EBUSY.
++ *
++ * TTM_SYNCCPU_MODE_TRYCACHED Try to place the buffer in cacheable
++ * memory while synchronized for CPU.
++ */
++
++#define TTM_PL_SYNCCPU_MODE_READ      TTM_ACCESS_READ
++#define TTM_PL_SYNCCPU_MODE_WRITE     TTM_ACCESS_WRITE
++#define TTM_PL_SYNCCPU_MODE_NO_BLOCK  (1 << 2)
++#define TTM_PL_SYNCCPU_MODE_TRYCACHED (1 << 3)
++
++/**
++ * struct ttm_pl_synccpu_arg
++ *
++ * @handle: The object to synchronize.
++ *
++ * @access_mode: access mode indicated by the
++ * TTM_SYNCCPU_MODE flags.
++ *
++ * @op: indicates whether to grab or release the
++ * buffer for cpu usage.
++ *
++ * Input to the TTM_PL_SYNCCPU ioctl.
++ */
++
++struct ttm_pl_synccpu_arg {
++      uint32_t handle;
++      uint32_t access_mode;
++      enum {
++              TTM_PL_SYNCCPU_OP_GRAB,
++              TTM_PL_SYNCCPU_OP_RELEASE
++      } op;
++      uint32_t pad64;
++};
++
++/*
++ * Waiting mode flags for the TTM_BO_WAITIDLE ioctl.
++ *
++ * TTM_WAITIDLE_MODE_LAZY: Allow for sleeps during polling
++ * wait.
++ *
++ * TTM_WAITIDLE_MODE_NO_BLOCK: Don't block waiting for GPU,
++ * but return -EBUSY if the buffer is busy.
++ */
++
++#define TTM_PL_WAITIDLE_MODE_LAZY     (1 << 0)
++#define TTM_PL_WAITIDLE_MODE_NO_BLOCK (1 << 1)
++
++/**
++ * struct ttm_waitidle_arg
++ *
++ * @handle: The object to synchronize.
++ *
++ * @mode: wait mode indicated by the
++ * TTM_SYNCCPU_MODE flags.
++ *
++ * Argument to the TTM_BO_WAITIDLE ioctl.
++ */
++
++struct ttm_pl_waitidle_arg {
++      uint32_t handle;
++      uint32_t mode;
++};
++
++union ttm_pl_create_arg {
++      struct ttm_pl_create_req req;
++      struct ttm_pl_rep rep;
++};
++
++union ttm_pl_reference_arg {
++      struct ttm_pl_reference_req req;
++      struct ttm_pl_rep rep;
++};
++
++union ttm_pl_setstatus_arg {
++      struct ttm_pl_setstatus_req req;
++      struct ttm_pl_rep rep;
++};
++
++union ttm_pl_create_ub_arg {
++      struct ttm_pl_create_ub_req req;
++      struct ttm_pl_rep rep;
++};
++
++/*
++ * Ioctl offsets.
++ */
++
++#define TTM_PL_CREATE      0x00
++#define TTM_PL_REFERENCE   0x01
++#define TTM_PL_UNREF       0x02
++#define TTM_PL_SYNCCPU     0x03
++#define TTM_PL_WAITIDLE    0x04
++#define TTM_PL_SETSTATUS   0x05
++#define TTM_PL_CREATE_UB   0x06
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_regman.h b/drivers/gpu/drm/psb/ttm/ttm_regman.h
+new file mode 100644
+index 0000000..5db5eda
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_regman.h
+@@ -0,0 +1,74 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#ifndef _TTM_REGMAN_H_
++#define _TTM_REGMAN_H_
++
++#include <linux/list.h>
++
++struct ttm_fence_object;
++
++struct ttm_reg {
++      struct list_head head;
++      struct ttm_fence_object *fence;
++      uint32_t fence_type;
++      uint32_t new_fence_type;
++};
++
++struct ttm_reg_manager {
++      struct list_head free;
++      struct list_head lru;
++      struct list_head unfenced;
++
++      int (*reg_reusable)(const struct ttm_reg *reg, const void *data);
++      void (*reg_destroy)(struct ttm_reg *reg);
++};
++
++extern int ttm_regs_alloc(struct ttm_reg_manager *manager,
++                        const void *data,
++                        uint32_t fence_class,
++                        uint32_t fence_type,
++                        int interruptible,
++                        int no_wait,
++                        struct ttm_reg **reg);
++
++extern void ttm_regs_fence(struct ttm_reg_manager *regs,
++                         struct ttm_fence_object *fence);
++
++extern void ttm_regs_free(struct ttm_reg_manager *manager);
++extern void ttm_regs_add(struct ttm_reg_manager *manager, struct ttm_reg *reg);
++extern void ttm_regs_init(struct ttm_reg_manager *manager,
++                        int (*reg_reusable)(const struct ttm_reg *,
++                                            const void *),
++                        void (*reg_destroy)(struct ttm_reg *));
++
++#endif
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_tt.c b/drivers/gpu/drm/psb/ttm/ttm_tt.c
+new file mode 100644
+index 0000000..5119aec
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_tt.c
+@@ -0,0 +1,655 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellström <thomas-at-tungstengraphics-dot-com>
++ */
++
++#include <linux/version.h>
++#include <linux/vmalloc.h>
++#include <linux/sched.h>
++#include <linux/highmem.h>
++#include <linux/pagemap.h>
++#include <linux/file.h>
++#include <linux/swap.h>
++#include "ttm/ttm_bo_driver.h"
++#include "ttm/ttm_placement_common.h"
++
++static int ttm_tt_swapin(struct ttm_tt *ttm);
++
++#if defined( CONFIG_X86 )
++static void ttm_tt_clflush_page(struct page *page)
++{
++      uint8_t *page_virtual;
++      unsigned int i;
++
++      if (unlikely(page == NULL))
++              return;
++
++      page_virtual = kmap_atomic(page, KM_USER0);
++
++      for (i = 0; i < PAGE_SIZE; i += boot_cpu_data.x86_clflush_size)
++              clflush(page_virtual + i);
++
++      kunmap_atomic(page_virtual, KM_USER0);
++}
++
++static void ttm_tt_cache_flush_clflush(struct page *pages[],
++                                     unsigned long num_pages)
++{
++      unsigned long i;
++
++      mb();
++      for (i = 0; i < num_pages; ++i)
++              ttm_tt_clflush_page(*pages++);
++      mb();
++}
++#else
++static void ttm_tt_ipi_handler(void *null)
++{
++      ;
++}
++#endif
++
++void ttm_tt_cache_flush(struct page *pages[], unsigned long num_pages)
++{
++
++#if defined( CONFIG_X86 )
++      if (cpu_has_clflush) {
++              ttm_tt_cache_flush_clflush(pages, num_pages);
++              return;
++      }
++#else
++      if (on_each_cpu(ttm_tt_ipi_handler, NULL, 1, 1) != 0)
++              printk(KERN_ERR "Timed out waiting for drm cache flush.\n");
++#endif
++}
++
++/**
++ * Allocates storage for pointers to the pages that back the ttm.
++ *
++ * Uses kmalloc if possible. Otherwise falls back to vmalloc.
++ */
++static void ttm_tt_alloc_page_directory(struct ttm_tt *ttm)
++{
++      unsigned long size = ttm->num_pages * sizeof(*ttm->pages);
++      ttm->pages = NULL;
++
++      if (size <= PAGE_SIZE)
++              ttm->pages = kzalloc(size, GFP_KERNEL);
++
++      if (!ttm->pages) {
++              ttm->pages = vmalloc_user(size);
++              if (ttm->pages)
++                      ttm->page_flags |= TTM_PAGE_FLAG_VMALLOC;
++      }
++}
++
++static void ttm_tt_free_page_directory(struct ttm_tt *ttm)
++{
++      if (ttm->page_flags & TTM_PAGE_FLAG_VMALLOC) {
++              vfree(ttm->pages);
++              ttm->page_flags &= ~TTM_PAGE_FLAG_VMALLOC;
++      } else {
++              kfree(ttm->pages);
++      }
++      ttm->pages = NULL;
++}
++
++static struct page *ttm_tt_alloc_page(void)
++{
++      return alloc_page(GFP_KERNEL | __GFP_ZERO);
++}
++
++static void ttm_tt_free_user_pages(struct ttm_tt *ttm)
++{
++      int write;
++      int dirty;
++      struct page *page;
++      int i;
++      struct ttm_backend *be = ttm->be;
++
++      BUG_ON(!(ttm->page_flags & TTM_PAGE_FLAG_USER));
++      write = ((ttm->page_flags & TTM_PAGE_FLAG_WRITE) != 0);
++      dirty = ((ttm->page_flags & TTM_PAGE_FLAG_USER_DIRTY) != 0);
++
++      if (be)
++              be->func->clear(be);
++
++      for (i = 0; i < ttm->num_pages; ++i) {
++              page = ttm->pages[i];
++              if (page == NULL)
++                      continue;
++
++              if (page == ttm->dummy_read_page) {
++                      BUG_ON(write);
++                      continue;
++              }
++
++              if (write && dirty && !PageReserved(page))
++                      set_page_dirty_lock(page);
++
++              ttm->pages[i] = NULL;
++              ttm_mem_global_free(ttm->bdev->mem_glob, PAGE_SIZE, false);
++              put_page(page);
++      }
++      ttm->state = tt_unpopulated;
++      ttm->first_himem_page = ttm->num_pages;
++      ttm->last_lomem_page = -1;
++}
++
++static struct page *__ttm_tt_get_page(struct ttm_tt *ttm, int index)
++{
++      struct page *p;
++      struct ttm_bo_device *bdev = ttm->bdev;
++      struct ttm_mem_global *mem_glob = bdev->mem_glob;
++      int ret;
++
++      while (NULL == (p = ttm->pages[index])) {
++              p = ttm_tt_alloc_page();
++
++              if (!p)
++                      return NULL;
++
++              if (PageHighMem(p)) {
++                      ret =
++                          ttm_mem_global_alloc(mem_glob, PAGE_SIZE, false, false, true);
++                      if (unlikely(ret != 0))
++                              goto out_err;
++                      ttm->pages[--ttm->first_himem_page] = p;
++              } else {
++                      ret =
++                          ttm_mem_global_alloc(mem_glob, PAGE_SIZE, false, false, false);
++                      if (unlikely(ret != 0))
++                              goto out_err;
++                      ttm->pages[++ttm->last_lomem_page] = p;
++              }
++      }
++      return p;
++      out_err:
++      put_page(p);
++      return NULL;
++}
++
++struct page *ttm_tt_get_page(struct ttm_tt *ttm, int index)
++{
++      int ret;
++
++      if (unlikely(ttm->page_flags & TTM_PAGE_FLAG_SWAPPED)) {
++              ret = ttm_tt_swapin(ttm);
++              if (unlikely(ret != 0))
++                      return NULL;
++      }
++      return __ttm_tt_get_page(ttm, index);
++}
++
++int ttm_tt_populate(struct ttm_tt *ttm)
++{
++      struct page *page;
++      unsigned long i;
++      struct ttm_backend *be;
++      int ret;
++
++      if (ttm->state != tt_unpopulated)
++              return 0;
++
++      if (unlikely(ttm->page_flags & TTM_PAGE_FLAG_SWAPPED)) {
++              ret = ttm_tt_swapin(ttm);
++              if (unlikely(ret != 0))
++                      return ret;
++      }
++
++      be = ttm->be;
++
++      for (i = 0; i < ttm->num_pages; ++i) {
++              page = __ttm_tt_get_page(ttm, i);
++              if (!page)
++                      return -ENOMEM;
++      }
++
++      be->func->populate(be, ttm->num_pages, ttm->pages,
++                         ttm->dummy_read_page);
++      ttm->state = tt_unbound;
++      return 0;
++}
++
++#ifdef CONFIG_X86
++static inline int ttm_tt_set_page_caching(struct page *p,
++                                        enum ttm_caching_state c_state)
++{
++      if (PageHighMem(p))
++              return 0;
++
++      switch (c_state) {
++      case tt_cached:
++              return set_pages_wb(p, 1);
++      case tt_wc:
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,27))
++          return set_memory_wc((unsigned long) page_address(p), 1);
++#endif /* (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,27)) */
++      default:
++              return set_pages_uc(p, 1);
++      }
++}
++#else /* CONFIG_X86 */
++static inline int ttm_tt_set_page_caching(struct page *p,
++                                        enum ttm_caching_state c_state)
++{
++      return 0;
++}
++#endif /* CONFIG_X86 */
++
++/*
++ * Change caching policy for the linear kernel map
++ * for range of pages in a ttm.
++ */
++
++static int ttm_tt_set_caching(struct ttm_tt *ttm,
++                            enum ttm_caching_state c_state)
++{
++      int i, j;
++      struct page *cur_page;
++      int ret;
++
++      if (ttm->caching_state == c_state)
++              return 0;
++
++      if (c_state != tt_cached) {
++              ret = ttm_tt_populate(ttm);
++              if (unlikely(ret != 0))
++                      return ret;
++      }
++
++      if (ttm->caching_state == tt_cached)
++              ttm_tt_cache_flush(ttm->pages, ttm->num_pages);
++
++      for (i = 0; i < ttm->num_pages; ++i) {
++              cur_page = ttm->pages[i];
++              if (likely(cur_page != NULL)) {
++                      ret = ttm_tt_set_page_caching(cur_page, c_state);
++                      if (unlikely(ret != 0))
++                              goto out_err;
++              }
++      }
++
++      ttm->caching_state = c_state;
++
++      return 0;
++
++      out_err:
++      for (j = 0; j < i; ++j) {
++              cur_page = ttm->pages[j];
++              if (likely(cur_page != NULL)) {
++                      (void)ttm_tt_set_page_caching(cur_page,
++                                                    ttm->caching_state);
++              }
++      }
++
++      return ret;
++}
++
++int ttm_tt_set_placement_caching(struct ttm_tt *ttm, uint32_t placement)
++{
++      enum ttm_caching_state state;
++
++      if (placement & TTM_PL_FLAG_WC)
++              state = tt_wc;
++      else if (placement & TTM_PL_FLAG_UNCACHED)
++              state = tt_uncached;
++      else
++              state = tt_cached;
++
++      return ttm_tt_set_caching(ttm, state);
++}
++
++static void ttm_tt_free_alloced_pages(struct ttm_tt *ttm)
++{
++      int i;
++      struct page *cur_page;
++      struct ttm_backend *be = ttm->be;
++
++      if (be)
++              be->func->clear(be);
++      (void)ttm_tt_set_caching(ttm, tt_cached);
++      for (i = 0; i < ttm->num_pages; ++i) {
++              cur_page = ttm->pages[i];
++              ttm->pages[i] = NULL;
++              if (cur_page) {
++                      if (page_count(cur_page) != 1)
++                              printk(KERN_ERR
++                                     "Erroneous page count. Leaking pages.\n");
++                      ttm_mem_global_free(ttm->bdev->mem_glob, PAGE_SIZE,
++                                          PageHighMem(cur_page));
++                      __free_page(cur_page);
++              }
++      }
++      ttm->state = tt_unpopulated;
++      ttm->first_himem_page = ttm->num_pages;
++      ttm->last_lomem_page = -1;
++}
++
++void ttm_tt_destroy(struct ttm_tt *ttm)
++{
++      struct ttm_backend *be;
++
++      if (unlikely(ttm == NULL))
++              return;
++
++      be = ttm->be;
++      if (likely(be != NULL)) {
++              be->func->destroy(be);
++              ttm->be = NULL;
++      }
++
++      if (likely(ttm->pages != NULL)) {
++              if (ttm->page_flags & TTM_PAGE_FLAG_USER)
++                      ttm_tt_free_user_pages(ttm);
++              else
++                      ttm_tt_free_alloced_pages(ttm);
++
++              ttm_tt_free_page_directory(ttm);
++      }
++
++      if (!(ttm->page_flags & TTM_PAGE_FLAG_PERSISTANT_SWAP) &&
++          ttm->swap_storage)
++              fput(ttm->swap_storage);
++
++      kfree(ttm);
++}
++
++int ttm_tt_set_user(struct ttm_tt *ttm,
++                  struct task_struct *tsk,
++                  unsigned long start, unsigned long num_pages)
++{
++      struct mm_struct *mm = tsk->mm;
++      int ret;
++      int write = (ttm->page_flags & TTM_PAGE_FLAG_WRITE) != 0;
++      struct ttm_mem_global *mem_glob = ttm->bdev->mem_glob;
++
++      BUG_ON(num_pages != ttm->num_pages);
++      BUG_ON((ttm->page_flags & TTM_PAGE_FLAG_USER) == 0);
++
++      /**
++       * Account user pages as lowmem pages for now.
++       */
++
++      ret = ttm_mem_global_alloc(mem_glob, num_pages * PAGE_SIZE, false, false, false);
++      if (unlikely(ret != 0))
++              return ret;
++
++      down_read(&mm->mmap_sem);
++      ret = get_user_pages(tsk, mm, start, num_pages,
++                           write, 0, ttm->pages, NULL);
++      up_read(&mm->mmap_sem);
++
++      if (ret != num_pages && write) {
++              ttm_tt_free_user_pages(ttm);
++              ttm_mem_global_free(mem_glob, num_pages * PAGE_SIZE, false);
++              return -ENOMEM;
++      }
++
++      ttm->tsk = tsk;
++      ttm->start = start;
++      ttm->state = tt_unbound;
++
++      return 0;
++}
++
++struct ttm_tt *ttm_tt_create(struct ttm_bo_device *bdev, unsigned long size,
++                           uint32_t page_flags, struct page *dummy_read_page)
++{
++      struct ttm_bo_driver *bo_driver = bdev->driver;
++      struct ttm_tt *ttm;
++
++      if (!bo_driver)
++              return NULL;
++
++      ttm = kzalloc(sizeof(*ttm), GFP_KERNEL);
++      if (!ttm)
++              return NULL;
++
++      ttm->bdev = bdev;
++
++      ttm->num_pages = (size + PAGE_SIZE - 1) >> PAGE_SHIFT;
++      ttm->first_himem_page = ttm->num_pages;
++      ttm->last_lomem_page = -1;
++      ttm->caching_state = tt_cached;
++      ttm->page_flags = page_flags;
++
++      ttm->dummy_read_page = dummy_read_page;
++
++      ttm_tt_alloc_page_directory(ttm);
++      if (!ttm->pages) {
++              ttm_tt_destroy(ttm);
++              printk(KERN_ERR "Failed allocating page table\n");
++              return NULL;
++      }
++      ttm->be = bo_driver->create_ttm_backend_entry(bdev);
++      if (!ttm->be) {
++              ttm_tt_destroy(ttm);
++              printk(KERN_ERR "Failed creating ttm backend entry\n");
++              return NULL;
++      }
++      ttm->state = tt_unpopulated;
++      return ttm;
++}
++
++/**
++ * ttm_tt_unbind:
++ *
++ * @ttm: the object to unbind from the graphics device
++ *
++ * Unbind an object from the aperture. This removes the mappings
++ * from the graphics device and flushes caches if necessary.
++ */
++void ttm_tt_unbind(struct ttm_tt *ttm)
++{
++      int ret;
++      struct ttm_backend *be = ttm->be;
++
++      if (ttm->state == tt_bound) {
++              ret = be->func->unbind(be);
++              BUG_ON(ret);
++      }
++      ttm->state = tt_unbound;
++}
++
++/**
++ * ttm_tt_bind:
++ *
++ * @ttm: the ttm object to bind to the graphics device
++ *
++ * @bo_mem: the aperture memory region which will hold the object
++ *
++ * Bind a ttm object to the aperture. This ensures that the necessary
++ * pages are allocated, flushes CPU caches as needed and marks the
++ * ttm as DRM_TTM_PAGE_USER_DIRTY to indicate that it may have been
++ * modified by the GPU
++ */
++
++int ttm_tt_bind(struct ttm_tt *ttm, struct ttm_mem_reg *bo_mem)
++{
++      int ret = 0;
++      struct ttm_backend *be;
++
++      if (!ttm)
++              return -EINVAL;
++
++      if (ttm->state == tt_bound)
++              return 0;
++
++      be = ttm->be;
++
++      ret = ttm_tt_populate(ttm);
++      if (ret)
++              return ret;
++
++      ret = be->func->bind(be, bo_mem);
++      if (ret) {
++              printk(KERN_ERR "Couldn't bind backend.\n");
++              return ret;
++      }
++
++      ttm->state = tt_bound;
++
++      if (ttm->page_flags & TTM_PAGE_FLAG_USER)
++              ttm->page_flags |= TTM_PAGE_FLAG_USER_DIRTY;
++      return 0;
++}
++
++static int ttm_tt_swapin(struct ttm_tt *ttm)
++{
++      struct address_space *swap_space;
++      struct file *swap_storage;
++      struct page *from_page;
++      struct page *to_page;
++      void *from_virtual;
++      void *to_virtual;
++      int i;
++      int ret;
++
++      if (ttm->page_flags & TTM_PAGE_FLAG_USER) {
++              ret = ttm_tt_set_user(ttm, ttm->tsk, ttm->start,
++                                    ttm->num_pages);
++              if (unlikely(ret != 0))
++                      return ret;
++
++              ttm->page_flags &= ~TTM_PAGE_FLAG_SWAPPED;
++              return 0;
++      }
++
++      swap_storage = ttm->swap_storage;
++      BUG_ON(swap_storage == NULL);
++
++      swap_space = swap_storage->f_path.dentry->d_inode->i_mapping;
++
++      for (i = 0; i < ttm->num_pages; ++i) {
++              from_page = read_mapping_page(swap_space, i, NULL);
++              if (IS_ERR(from_page))
++                      goto out_err;
++              to_page = __ttm_tt_get_page(ttm, i);
++              if (unlikely(to_page == NULL))
++                      goto out_err;
++
++              preempt_disable();
++              from_virtual = kmap_atomic(from_page, KM_USER0);
++              to_virtual = kmap_atomic(to_page, KM_USER1);
++              memcpy(to_virtual, from_virtual, PAGE_SIZE);
++              kunmap_atomic(to_virtual, KM_USER1);
++              kunmap_atomic(from_virtual, KM_USER0);
++              preempt_enable();
++              page_cache_release(from_page);
++      }
++
++      if (!(ttm->page_flags & TTM_PAGE_FLAG_PERSISTANT_SWAP))
++              fput(swap_storage);
++      ttm->swap_storage = NULL;
++      ttm->page_flags &= ~TTM_PAGE_FLAG_SWAPPED;
++
++      return 0;
++      out_err:
++      ttm_tt_free_alloced_pages(ttm);
++      return -ENOMEM;
++}
++
++int ttm_tt_swapout(struct ttm_tt *ttm, struct file *persistant_swap_storage)
++{
++      struct address_space *swap_space;
++      struct file *swap_storage;
++      struct page *from_page;
++      struct page *to_page;
++      void *from_virtual;
++      void *to_virtual;
++      int i;
++
++      BUG_ON(ttm->state != tt_unbound && ttm->state != tt_unpopulated);
++      BUG_ON(ttm->caching_state != tt_cached);
++
++      /*
++       * For user buffers, just unpin the pages, as there should be
++       * vma references.
++       */
++
++      if (ttm->page_flags & TTM_PAGE_FLAG_USER) {
++              ttm_tt_free_user_pages(ttm);
++              ttm->page_flags |= TTM_PAGE_FLAG_SWAPPED;
++              ttm->swap_storage = NULL;
++              return 0;
++      }
++
++      if (!persistant_swap_storage) {
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,28))
++              swap_storage = shmem_file_setup("ttm swap",
++                                              ttm->num_pages << PAGE_SHIFT,
++                                              0);
++              if (unlikely(IS_ERR(swap_storage))) {
++                      printk(KERN_ERR "Failed allocating swap storage.\n");
++                      return -ENOMEM;
++              }
++#else
++              return -ENOMEM;
++#endif
++      } else
++              swap_storage = persistant_swap_storage;
++
++      swap_space = swap_storage->f_path.dentry->d_inode->i_mapping;
++
++      for (i = 0; i < ttm->num_pages; ++i) {
++              from_page = ttm->pages[i];
++              if (unlikely(from_page == NULL))
++                      continue;
++              to_page = read_mapping_page(swap_space, i, NULL);
++              if (unlikely(to_page == NULL))
++                      goto out_err;
++
++              preempt_disable();
++              from_virtual = kmap_atomic(from_page, KM_USER0);
++              to_virtual = kmap_atomic(to_page, KM_USER1);
++              memcpy(to_virtual, from_virtual, PAGE_SIZE);
++              kunmap_atomic(to_virtual, KM_USER1);
++              kunmap_atomic(from_virtual, KM_USER0);
++              preempt_enable();
++              set_page_dirty(to_page);
++              mark_page_accessed(to_page);
++//              unlock_page(to_page);
++              page_cache_release(to_page);
++      }
++
++      ttm_tt_free_alloced_pages(ttm);
++      ttm->swap_storage = swap_storage;
++      ttm->page_flags |= TTM_PAGE_FLAG_SWAPPED;
++      if (persistant_swap_storage)
++              ttm->page_flags |= TTM_PAGE_FLAG_PERSISTANT_SWAP;
++
++      return 0;
++      out_err:
++      if (!persistant_swap_storage)
++              fput(swap_storage);
++
++      return -ENOMEM;
++}
+diff --git a/drivers/gpu/drm/psb/ttm/ttm_userobj_api.h b/drivers/gpu/drm/psb/ttm/ttm_userobj_api.h
+new file mode 100644
+index 0000000..5309050
+--- /dev/null
++++ b/drivers/gpu/drm/psb/ttm/ttm_userobj_api.h
+@@ -0,0 +1,79 @@
++/**************************************************************************
++ *
++ * Copyright (c) 2006-2008 Tungsten Graphics, Inc., Cedar Park, TX., USA
++ * All Rights Reserved.
++ * Copyright (c) 2009 VMware, Inc., Palo Alto, CA., USA
++ * All Rights Reserved.
++ *
++ * Permission is hereby granted, free of charge, to any person obtaining a
++ * copy of this software and associated documentation files (the
++ * "Software"), to deal in the Software without restriction, including
++ * without limitation the rights to use, copy, modify, merge, publish,
++ * distribute, sub license, and/or sell copies of the Software, and to
++ * permit persons to whom the Software is furnished to do so, subject to
++ * the following conditions:
++ *
++ * The above copyright notice and this permission notice (including the
++ * next paragraph) shall be included in all copies or substantial portions
++ * of the Software.
++ *
++ * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
++ * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
++ * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
++ * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
++ * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
++ * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
++ * USE OR OTHER DEALINGS IN THE SOFTWARE.
++ *
++ **************************************************************************/
++/*
++ * Authors: Thomas Hellstrom <thomas-at-tungstengraphics-dot-com>
++ */
++
++#ifndef _TTM_USEROBJ_API_H_
++#define _TTM_USEROBJ_API_H_
++
++#include "ttm/ttm_placement_user.h"
++#include "ttm/ttm_fence_user.h"
++#include "ttm/ttm_object.h"
++#include "ttm/ttm_fence_api.h"
++#include "ttm/ttm_bo_api.h"
++
++struct ttm_lock;
++
++/*
++ * User ioctls.
++ */
++
++extern int ttm_pl_create_ioctl(struct ttm_object_file *tfile,
++                             struct ttm_bo_device *bdev,
++                             struct ttm_lock *lock, void *data);
++extern int ttm_pl_ub_create_ioctl(struct ttm_object_file *tfile,
++                                struct ttm_bo_device *bdev,
++                                struct ttm_lock *lock, void *data);
++extern int ttm_pl_reference_ioctl(struct ttm_object_file *tfile, void *data);
++extern int ttm_pl_unref_ioctl(struct ttm_object_file *tfile, void *data);
++extern int ttm_pl_synccpu_ioctl(struct ttm_object_file *tfile, void *data);
++extern int ttm_pl_setstatus_ioctl(struct ttm_object_file *tfile,
++                                struct ttm_lock *lock, void *data);
++extern int ttm_pl_waitidle_ioctl(struct ttm_object_file *tfile, void *data);
++extern int ttm_fence_signaled_ioctl(struct ttm_object_file *tfile, void *data);
++extern int ttm_fence_finish_ioctl(struct ttm_object_file *tfile, void *data);
++extern int ttm_fence_unref_ioctl(struct ttm_object_file *tfile, void *data);
++
++extern int
++ttm_fence_user_create(struct ttm_fence_device *fdev,
++                    struct ttm_object_file *tfile,
++                    uint32_t fence_class,
++                    uint32_t fence_types,
++                    uint32_t create_flags,
++                    struct ttm_fence_object **fence, uint32_t * user_handle);
++
++extern struct ttm_buffer_object *ttm_buffer_object_lookup(struct ttm_object_file
++                                                        *tfile,
++                                                        uint32_t handle);
++
++extern int
++ttm_pl_verify_access(struct ttm_buffer_object *bo,
++                   struct ttm_object_file *tfile);
++#endif
+diff --git a/include/drm/drmP.h b/include/drm/drmP.h
+index 5575b9a..9c0b919 100644
+--- a/include/drm/drmP.h
++++ b/include/drm/drmP.h
+@@ -1101,6 +1109,8 @@ extern int drm_init(struct drm_driver *driver);
+ extern void drm_exit(struct drm_driver *driver);
+ extern int drm_ioctl(struct inode *inode, struct file *filp,
+                    unsigned int cmd, unsigned long arg);
++extern long drm_unlocked_ioctl(struct file *filp,
++                             unsigned int cmd, unsigned long arg);
+ extern long drm_compat_ioctl(struct file *filp,
+                            unsigned int cmd, unsigned long arg);
+ extern int drm_lastclose(struct drm_device *dev);
+@@ -1514,5 +1524,25 @@ static __inline void drm_free_large(void *ptr)
+ }
+ /*@}*/
++enum drm_global_types {
++      DRM_GLOBAL_TTM_MEM = 0,
++      DRM_GLOBAL_TTM_BO,
++      DRM_GLOBAL_TTM_OBJECT,
++      DRM_GLOBAL_NUM
++};
++
++struct drm_global_reference {
++      enum drm_global_types global_type;
++      size_t size;
++      void *object;
++      int (*init) (struct drm_global_reference *);
++      void (*release) (struct drm_global_reference *);
++};
++
++extern void drm_global_init(void);
++extern void drm_global_release(void);
++extern int drm_global_item_ref(struct drm_global_reference *ref);
++extern void drm_global_item_unref(struct drm_global_reference *ref);
++
+ #endif                                /* __KERNEL__ */
+ #endif
+diff --git a/include/drm/drm_mode.h b/include/drm/drm_mode.h
+index ae304cc..43a62a8 100644
+--- a/include/drm/drm_mode.h
++++ b/include/drm/drm_mode.h
+@@ -121,6 +121,7 @@ struct drm_mode_crtc {
+ #define DRM_MODE_ENCODER_TMDS 2
+ #define DRM_MODE_ENCODER_LVDS 3
+ #define DRM_MODE_ENCODER_TVDAC        4
++#define DRM_MODE_ENCODER_MIPI 5
+ struct drm_mode_get_encoder {
+       __u32 encoder_id;
+@@ -155,6 +156,7 @@ struct drm_mode_get_encoder {
+ #define DRM_MODE_CONNECTOR_DisplayPort        10
+ #define DRM_MODE_CONNECTOR_HDMIA      11
+ #define DRM_MODE_CONNECTOR_HDMIB      12
++#define DRM_MODE_CONNECTOR_MIPI               13
+ struct drm_mode_get_connector {
+diff --git a/include/linux/backlight.h b/include/linux/backlight.h
+index 79ca2da..00d7255 100644
+--- a/include/linux/backlight.h
++++ b/include/linux/backlight.h
+@@ -87,6 +87,9 @@ struct backlight_device {
+       struct notifier_block fb_notif;
+       struct device dev;
++
++      /* Private Backlight Data */
++      void *priv;
+ };
+ static inline void backlight_update_status(struct backlight_device *bd)
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/close_debug_info_of_rt2860.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/close_debug_info_of_rt2860.patch
new file mode 100644 (file)
index 0000000..4aa8469
--- /dev/null
@@ -0,0 +1,38 @@
+diff --git a/drivers/staging/rt2860/rt_linux.c b/drivers/staging/rt2860/rt_linux.c
+index 80176b2..fc682be 100644
+--- a/drivers/staging/rt2860/rt_linux.c
++++ b/drivers/staging/rt2860/rt_linux.c
+@@ -27,7 +27,7 @@
+ #include "rt_config.h"
+-ULONG RTDebugLevel = RT_DEBUG_ERROR;
++ULONG RTDebugLevel = RT_DEBUG_OFF;
+ BUILD_TIMER_FUNCTION(MlmePeriodicExec);
+ BUILD_TIMER_FUNCTION(AsicRxAntEvalTimeout);
+diff --git a/drivers/staging/rt2860/rt_linux.h b/drivers/staging/rt2860/rt_linux.h
+index 25b53ac..56ac9ac 100644
+--- a/drivers/staging/rt2860/rt_linux.h
++++ b/drivers/staging/rt2860/rt_linux.h
+@@ -375,18 +375,9 @@ extern ULONG    RTDebugLevel;
+ #define DBGPRINT(Level, Fmt)    DBGPRINT_RAW(Level, Fmt)
++#define DBGPRINT_ERR(Fmt)
+-#define DBGPRINT_ERR(Fmt)           \
+-{                                   \
+-    printk("ERROR!!! ");          \
+-    printk Fmt;                  \
+-}
+-
+-#define DBGPRINT_S(Status, Fmt)               \
+-{                                                                     \
+-      printk Fmt;                                     \
+-}
+-
++#define DBGPRINT_S(Status, Fmt)
+ #else
+ #define DBGPRINT(Level, Fmt)
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/defconfig-netbook b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/defconfig-netbook
new file mode 100644 (file)
index 0000000..f88e5be
--- /dev/null
@@ -0,0 +1,3220 @@
+#
+# Automatically generated make config: don't edit
+# Linux kernel version: 2.6.28.rc7-4.netbook
+# Mon Dec  8 01:05:27 2008
+#
+# CONFIG_64BIT is not set
+CONFIG_X86_32=y
+# CONFIG_X86_64 is not set
+CONFIG_X86=y
+CONFIG_ARCH_DEFCONFIG="arch/x86/configs/i386_defconfig"
+CONFIG_GENERIC_TIME=y
+CONFIG_GENERIC_CMOS_UPDATE=y
+CONFIG_CLOCKSOURCE_WATCHDOG=y
+CONFIG_GENERIC_CLOCKEVENTS=y
+CONFIG_GENERIC_CLOCKEVENTS_BROADCAST=y
+CONFIG_LOCKDEP_SUPPORT=y
+CONFIG_STACKTRACE_SUPPORT=y
+CONFIG_HAVE_LATENCYTOP_SUPPORT=y
+CONFIG_FAST_CMPXCHG_LOCAL=y
+CONFIG_MMU=y
+CONFIG_ZONE_DMA=y
+CONFIG_GENERIC_ISA_DMA=y
+CONFIG_GENERIC_IOMAP=y
+CONFIG_GENERIC_BUG=y
+CONFIG_GENERIC_HWEIGHT=y
+CONFIG_ARCH_MAY_HAVE_PC_FDC=y
+# CONFIG_RWSEM_GENERIC_SPINLOCK is not set
+CONFIG_RWSEM_XCHGADD_ALGORITHM=y
+CONFIG_ARCH_HAS_CPU_IDLE_WAIT=y
+CONFIG_GENERIC_CALIBRATE_DELAY=y
+# CONFIG_GENERIC_TIME_VSYSCALL is not set
+CONFIG_ARCH_HAS_CPU_RELAX=y
+CONFIG_ARCH_HAS_DEFAULT_IDLE=y
+CONFIG_ARCH_HAS_CACHE_LINE_SIZE=y
+CONFIG_HAVE_SETUP_PER_CPU_AREA=y
+# CONFIG_HAVE_CPUMASK_OF_CPU_MAP is not set
+CONFIG_ARCH_HIBERNATION_POSSIBLE=y
+CONFIG_ARCH_SUSPEND_POSSIBLE=y
+# CONFIG_ZONE_DMA32 is not set
+CONFIG_ARCH_POPULATES_NODE_MAP=y
+# CONFIG_AUDIT_ARCH is not set
+CONFIG_ARCH_SUPPORTS_OPTIMIZED_INLINING=y
+CONFIG_GENERIC_HARDIRQS=y
+CONFIG_GENERIC_IRQ_PROBE=y
+CONFIG_GENERIC_PENDING_IRQ=y
+CONFIG_X86_SMP=y
+CONFIG_USE_GENERIC_SMP_HELPERS=y
+CONFIG_X86_32_SMP=y
+CONFIG_X86_HT=y
+CONFIG_X86_BIOS_REBOOT=y
+CONFIG_X86_TRAMPOLINE=y
+CONFIG_KTIME_SCALAR=y
+CONFIG_DEFCONFIG_LIST="/lib/modules/$UNAME_RELEASE/.config"
+
+#
+# General setup
+#
+CONFIG_EXPERIMENTAL=y
+CONFIG_LOCK_KERNEL=y
+CONFIG_INIT_ENV_ARG_LIMIT=32
+CONFIG_LOCALVERSION="-netbook"
+# CONFIG_LOCALVERSION_AUTO is not set
+CONFIG_SWAP=y
+CONFIG_SYSVIPC=y
+CONFIG_SYSVIPC_SYSCTL=y
+CONFIG_POSIX_MQUEUE=y
+CONFIG_BSD_PROCESS_ACCT=y
+CONFIG_BSD_PROCESS_ACCT_V3=y
+# CONFIG_TASKSTATS is not set
+# CONFIG_AUDIT is not set
+# CONFIG_IKCONFIG is not set
+CONFIG_LOG_BUF_SHIFT=17
+# CONFIG_CGROUPS is not set
+CONFIG_HAVE_UNSTABLE_SCHED_CLOCK=y
+# CONFIG_GROUP_SCHED is not set
+# CONFIG_SYSFS_DEPRECATED_V2 is not set
+CONFIG_RELAY=y
+CONFIG_NAMESPACES=y
+# CONFIG_UTS_NS is not set
+# CONFIG_IPC_NS is not set
+# CONFIG_USER_NS is not set
+# CONFIG_PID_NS is not set
+CONFIG_BLK_DEV_INITRD=y
+CONFIG_INITRAMFS_SOURCE=""
+CONFIG_CC_OPTIMIZE_FOR_SIZE=y
+CONFIG_FASTBOOT=y
+CONFIG_SYSCTL=y
+# CONFIG_EMBEDDED is not set
+CONFIG_UID16=y
+CONFIG_SYSCTL_SYSCALL=y
+CONFIG_KALLSYMS=y
+CONFIG_KALLSYMS_ALL=y
+CONFIG_KALLSYMS_EXTRA_PASS=y
+CONFIG_KALLSYMS_STRIP_GENERATED=y
+CONFIG_HOTPLUG=y
+CONFIG_PRINTK=y
+CONFIG_BUG=y
+CONFIG_ELF_CORE=y
+CONFIG_PCSPKR_PLATFORM=y
+# CONFIG_COMPAT_BRK is not set
+CONFIG_BASE_FULL=y
+CONFIG_FUTEX=y
+CONFIG_ANON_INODES=y
+CONFIG_EPOLL=y
+CONFIG_SIGNALFD=y
+CONFIG_TIMERFD=y
+CONFIG_EVENTFD=y
+CONFIG_SHMEM=y
+CONFIG_AIO=y
+CONFIG_VM_EVENT_COUNTERS=y
+CONFIG_PCI_QUIRKS=y
+CONFIG_SLAB=y
+# CONFIG_SLUB is not set
+# CONFIG_SLOB is not set
+CONFIG_PROFILING=y
+# CONFIG_MARKERS is not set
+CONFIG_OPROFILE=y
+# CONFIG_OPROFILE_IBS is not set
+CONFIG_HAVE_OPROFILE=y
+# CONFIG_KPROBES is not set
+CONFIG_HAVE_EFFICIENT_UNALIGNED_ACCESS=y
+CONFIG_HAVE_IOREMAP_PROT=y
+CONFIG_HAVE_KPROBES=y
+CONFIG_HAVE_KRETPROBES=y
+CONFIG_HAVE_ARCH_TRACEHOOK=y
+CONFIG_HAVE_GENERIC_DMA_COHERENT=y
+CONFIG_SLABINFO=y
+CONFIG_RT_MUTEXES=y
+# CONFIG_TINY_SHMEM is not set
+CONFIG_BASE_SMALL=0
+CONFIG_MODULES=y
+# CONFIG_MODULE_FORCE_LOAD is not set
+CONFIG_MODULE_UNLOAD=y
+# CONFIG_MODULE_FORCE_UNLOAD is not set
+# CONFIG_MODVERSIONS is not set
+# CONFIG_MODULE_SRCVERSION_ALL is not set
+CONFIG_KMOD=y
+CONFIG_STOP_MACHINE=y
+CONFIG_BLOCK=y
+CONFIG_LBD=y
+CONFIG_BLK_DEV_IO_TRACE=y
+# CONFIG_LSF is not set
+CONFIG_BLK_DEV_BSG=y
+# CONFIG_BLK_DEV_INTEGRITY is not set
+
+#
+# IO Schedulers
+#
+CONFIG_IOSCHED_NOOP=y
+# CONFIG_IOSCHED_AS is not set
+# CONFIG_IOSCHED_DEADLINE is not set
+CONFIG_IOSCHED_CFQ=y
+# CONFIG_DEFAULT_AS is not set
+# CONFIG_DEFAULT_DEADLINE is not set
+CONFIG_DEFAULT_CFQ=y
+# CONFIG_DEFAULT_NOOP is not set
+CONFIG_DEFAULT_IOSCHED="cfq"
+CONFIG_CLASSIC_RCU=y
+CONFIG_FREEZER=y
+
+#
+# Processor type and features
+#
+CONFIG_TICK_ONESHOT=y
+CONFIG_NO_HZ=y
+CONFIG_HIGH_RES_TIMERS=y
+CONFIG_GENERIC_CLOCKEVENTS_BUILD=y
+CONFIG_SMP=y
+# CONFIG_SPARSE_IRQ is not set
+CONFIG_X86_FIND_SMP_CONFIG=y
+CONFIG_X86_MPPARSE=y
+# CONFIG_X86_PC is not set
+# CONFIG_X86_ELAN is not set
+# CONFIG_X86_VOYAGER is not set
+CONFIG_X86_GENERICARCH=y
+# CONFIG_X86_NUMAQ is not set
+# CONFIG_X86_SUMMIT is not set
+# CONFIG_X86_ES7000 is not set
+# CONFIG_X86_BIGSMP is not set
+# CONFIG_X86_VSMP is not set
+# CONFIG_X86_RDC321X is not set
+CONFIG_SCHED_NO_NO_OMIT_FRAME_POINTER=y
+# CONFIG_SCHED_OMIT_FRAME_POINTER is not set
+# CONFIG_PARAVIRT_GUEST is not set
+# CONFIG_MEMTEST is not set
+CONFIG_X86_CYCLONE_TIMER=y
+# CONFIG_M386 is not set
+# CONFIG_M486 is not set
+# CONFIG_M586 is not set
+# CONFIG_M586TSC is not set
+# CONFIG_M586MMX is not set
+# CONFIG_M686 is not set
+# CONFIG_MPENTIUMII is not set
+# CONFIG_MPENTIUMIII is not set
+CONFIG_MPENTIUMM=y
+# CONFIG_MPENTIUM4 is not set
+# CONFIG_MK6 is not set
+# CONFIG_MK7 is not set
+# CONFIG_MK8 is not set
+# CONFIG_MCRUSOE is not set
+# CONFIG_MEFFICEON is not set
+# CONFIG_MWINCHIPC6 is not set
+# CONFIG_MWINCHIP3D is not set
+# CONFIG_MGEODEGX1 is not set
+# CONFIG_MGEODE_LX is not set
+# CONFIG_MCYRIXIII is not set
+# CONFIG_MVIAC3_2 is not set
+# CONFIG_MVIAC7 is not set
+# CONFIG_MPSC is not set
+# CONFIG_MCORE2 is not set
+# CONFIG_GENERIC_CPU is not set
+CONFIG_X86_GENERIC=y
+CONFIG_X86_CPU=y
+CONFIG_X86_CMPXCHG=y
+CONFIG_X86_L1_CACHE_SHIFT=7
+CONFIG_X86_XADD=y
+CONFIG_X86_WP_WORKS_OK=y
+CONFIG_X86_INVLPG=y
+CONFIG_X86_BSWAP=y
+CONFIG_X86_POPAD_OK=y
+CONFIG_X86_INTEL_USERCOPY=y
+CONFIG_X86_USE_PPRO_CHECKSUM=y
+CONFIG_X86_TSC=y
+CONFIG_X86_CMPXCHG64=y
+CONFIG_X86_CMOV=y
+CONFIG_X86_MINIMUM_CPU_FAMILY=4
+CONFIG_X86_DEBUGCTLMSR=y
+CONFIG_CPU_SUP_INTEL=y
+CONFIG_CPU_SUP_CYRIX_32=y
+CONFIG_CPU_SUP_AMD=y
+CONFIG_CPU_SUP_CENTAUR_32=y
+CONFIG_CPU_SUP_TRANSMETA_32=y
+CONFIG_CPU_SUP_UMC_32=y
+# CONFIG_X86_DS is not set
+# CONFIG_X86_PTRACE_BTS is not set
+CONFIG_HPET_TIMER=y
+CONFIG_HPET_EMULATE_RTC=y
+CONFIG_DMI=y
+# CONFIG_IOMMU_HELPER is not set
+CONFIG_NR_CPUS=8
+CONFIG_SCHED_SMT=y
+CONFIG_SCHED_MC=y
+# CONFIG_PREEMPT_NONE is not set
+# CONFIG_PREEMPT_VOLUNTARY is not set
+CONFIG_PREEMPT=y
+# CONFIG_DEBUG_PREEMPT is not set
+# CONFIG_PREEMPT_TRACER is not set
+CONFIG_X86_LOCAL_APIC=y
+CONFIG_X86_IO_APIC=y
+# CONFIG_X86_REROUTE_FOR_BROKEN_BOOT_IRQS is not set
+CONFIG_X86_MCE=y
+# CONFIG_X86_MCE_NONFATAL is not set
+CONFIG_X86_MCE_P4THERMAL=y
+CONFIG_VM86=y
+CONFIG_TOSHIBA=m
+CONFIG_I8K=m
+CONFIG_X86_REBOOTFIXUPS=y
+CONFIG_MICROCODE=y
+CONFIG_MICROCODE_INTEL=y
+# CONFIG_MICROCODE_AMD is not set
+CONFIG_MICROCODE_OLD_INTERFACE=y
+CONFIG_X86_MSR=y
+CONFIG_X86_CPUID=y
+# CONFIG_NOHIGHMEM is not set
+# CONFIG_HIGHMEM4G is not set
+CONFIG_HIGHMEM64G=y
+CONFIG_PAGE_OFFSET=0xC0000000
+CONFIG_HIGHMEM=y
+CONFIG_X86_PAE=y
+CONFIG_ARCH_PHYS_ADDR_T_64BIT=y
+CONFIG_ARCH_FLATMEM_ENABLE=y
+CONFIG_ARCH_SPARSEMEM_ENABLE=y
+CONFIG_ARCH_SELECT_MEMORY_MODEL=y
+CONFIG_SELECT_MEMORY_MODEL=y
+CONFIG_FLATMEM_MANUAL=y
+# CONFIG_DISCONTIGMEM_MANUAL is not set
+# CONFIG_SPARSEMEM_MANUAL is not set
+CONFIG_FLATMEM=y
+CONFIG_FLAT_NODE_MEM_MAP=y
+CONFIG_SPARSEMEM_STATIC=y
+CONFIG_PAGEFLAGS_EXTENDED=y
+CONFIG_SPLIT_PTLOCK_CPUS=4
+CONFIG_RESOURCES_64BIT=y
+CONFIG_PHYS_ADDR_T_64BIT=y
+CONFIG_ZONE_DMA_FLAG=1
+CONFIG_BOUNCE=y
+CONFIG_VIRT_TO_BUS=y
+CONFIG_UNEVICTABLE_LRU=y
+CONFIG_HIGHPTE=y
+# CONFIG_X86_CHECK_BIOS_CORRUPTION is not set
+CONFIG_X86_RESERVE_LOW_64K=y
+# CONFIG_MATH_EMULATION is not set
+CONFIG_MTRR=y
+CONFIG_MTRR_SANITIZER=y
+CONFIG_MTRR_SANITIZER_ENABLE_DEFAULT=1
+CONFIG_MTRR_SANITIZER_SPARE_REG_NR_DEFAULT=1
+CONFIG_X86_PAT=y
+CONFIG_EFI=y
+# CONFIG_SECCOMP is not set
+# CONFIG_HZ_100 is not set
+# CONFIG_HZ_250 is not set
+# CONFIG_HZ_300 is not set
+CONFIG_HZ_1000=y
+CONFIG_HZ=1000
+CONFIG_SCHED_HRTICK=y
+# CONFIG_KEXEC is not set
+# CONFIG_CRASH_DUMP is not set
+CONFIG_PHYSICAL_START=0x100000
+# CONFIG_RELOCATABLE is not set
+CONFIG_PHYSICAL_ALIGN=0x400000
+CONFIG_HOTPLUG_CPU=y
+# CONFIG_COMPAT_VDSO is not set
+# CONFIG_CMDLINE_BOOL is not set
+# CONFIG_CMDLINE is not set
+# CONFIG_CMDLINE_OVERRIDE is not set
+CONFIG_ARCH_ENABLE_MEMORY_HOTPLUG=y
+
+#
+# Power management and ACPI options
+#
+CONFIG_PM=y
+CONFIG_PM_DEBUG=y
+# CONFIG_PM_VERBOSE is not set
+CONFIG_CAN_PM_TRACE=y
+CONFIG_PM_TRACE=y
+CONFIG_PM_TRACE_RTC=y
+CONFIG_PM_SLEEP_SMP=y
+CONFIG_PM_SLEEP=y
+CONFIG_SUSPEND=y
+# CONFIG_PM_TEST_SUSPEND is not set
+CONFIG_SUSPEND_FREEZER=y
+CONFIG_HIBERNATION=y
+CONFIG_PM_STD_PARTITION=""
+CONFIG_ACPI=y
+CONFIG_ACPI_SLEEP=y
+CONFIG_ACPI_PROCFS=y
+CONFIG_ACPI_PROCFS_POWER=y
+CONFIG_ACPI_SYSFS_POWER=y
+CONFIG_ACPI_PROC_EVENT=y
+CONFIG_ACPI_AC=y
+CONFIG_ACPI_BATTERY=m
+CONFIG_ACPI_BUTTON=y
+CONFIG_ACPI_VIDEO=y
+CONFIG_ACPI_FAN=y
+CONFIG_ACPI_DOCK=y
+CONFIG_ACPI_PROCESSOR=y
+CONFIG_ACPI_HOTPLUG_CPU=y
+CONFIG_ACPI_THERMAL=y
+CONFIG_ACPI_WMI=y
+CONFIG_ACPI_ASUS=m
+CONFIG_ACPI_TOSHIBA=m
+# CONFIG_ACPI_CUSTOM_DSDT is not set
+CONFIG_ACPI_BLACKLIST_YEAR=1999
+# CONFIG_ACPI_DEBUG is not set
+# CONFIG_ACPI_PCI_SLOT is not set
+CONFIG_ACPI_SYSTEM=y
+CONFIG_X86_PM_TIMER=y
+CONFIG_ACPI_CONTAINER=y
+CONFIG_ACPI_SBS=m
+# CONFIG_APM is not set
+
+#
+# CPU Frequency scaling
+#
+CONFIG_CPU_FREQ=y
+CONFIG_CPU_FREQ_TABLE=y
+CONFIG_CPU_FREQ_DEBUG=y
+CONFIG_CPU_FREQ_STAT=y
+CONFIG_CPU_FREQ_STAT_DETAILS=y
+# CONFIG_CPU_FREQ_DEFAULT_GOV_PERFORMANCE is not set
+# CONFIG_CPU_FREQ_DEFAULT_GOV_POWERSAVE is not set
+# CONFIG_CPU_FREQ_DEFAULT_GOV_USERSPACE is not set
+CONFIG_CPU_FREQ_DEFAULT_GOV_ONDEMAND=y
+# CONFIG_CPU_FREQ_DEFAULT_GOV_CONSERVATIVE is not set
+CONFIG_CPU_FREQ_GOV_PERFORMANCE=y
+# CONFIG_CPU_FREQ_GOV_POWERSAVE is not set
+CONFIG_CPU_FREQ_GOV_USERSPACE=y
+CONFIG_CPU_FREQ_GOV_ONDEMAND=y
+# CONFIG_CPU_FREQ_GOV_CONSERVATIVE is not set
+
+#
+# CPUFreq processor drivers
+#
+CONFIG_X86_ACPI_CPUFREQ=y
+# CONFIG_X86_POWERNOW_K6 is not set
+# CONFIG_X86_POWERNOW_K7 is not set
+# CONFIG_X86_POWERNOW_K8 is not set
+# CONFIG_X86_GX_SUSPMOD is not set
+# CONFIG_X86_SPEEDSTEP_CENTRINO is not set
+# CONFIG_X86_SPEEDSTEP_ICH is not set
+# CONFIG_X86_SPEEDSTEP_SMI is not set
+# CONFIG_X86_P4_CLOCKMOD is not set
+# CONFIG_X86_CPUFREQ_NFORCE2 is not set
+# CONFIG_X86_LONGRUN is not set
+# CONFIG_X86_LONGHAUL is not set
+# CONFIG_X86_E_POWERSAVER is not set
+
+#
+# shared options
+#
+# CONFIG_X86_ACPI_CPUFREQ_PROC_INTF is not set
+# CONFIG_X86_SPEEDSTEP_LIB is not set
+CONFIG_CPU_IDLE=y
+CONFIG_CPU_IDLE_GOV_LADDER=y
+CONFIG_CPU_IDLE_GOV_MENU=y
+
+#
+# Bus options (PCI etc.)
+#
+CONFIG_PCI=y
+# CONFIG_PCI_GOBIOS is not set
+# CONFIG_PCI_GOMMCONFIG is not set
+# CONFIG_PCI_GODIRECT is not set
+# CONFIG_PCI_GOOLPC is not set
+CONFIG_PCI_GOANY=y
+CONFIG_PCI_BIOS=y
+CONFIG_PCI_DIRECT=y
+CONFIG_PCI_MMCONFIG=y
+CONFIG_PCI_DOMAINS=y
+CONFIG_PCIEPORTBUS=y
+# CONFIG_PCIEAER is not set
+# CONFIG_PCIEASPM is not set
+# CONFIG_PCIEASPM_DEBUG is not set
+CONFIG_ARCH_SUPPORTS_MSI=y
+CONFIG_PCI_MSI=y
+# CONFIG_PCI_LEGACY is not set
+# CONFIG_PCI_DEBUG is not set
+# CONFIG_PCI_STUB is not set
+# CONFIG_HT_IRQ is not set
+CONFIG_ISA_DMA_API=y
+CONFIG_ISA=y
+# CONFIG_EISA is not set
+# CONFIG_MCA is not set
+# CONFIG_SCx200 is not set
+# CONFIG_OLPC is not set
+CONFIG_PCCARD=y
+# CONFIG_PCMCIA_DEBUG is not set
+# CONFIG_PCMCIA is not set
+CONFIG_CARDBUS=y
+
+#
+# PC-card bridges
+#
+CONFIG_YENTA=y
+CONFIG_YENTA_O2=y
+CONFIG_YENTA_RICOH=y
+CONFIG_YENTA_TI=y
+CONFIG_YENTA_ENE_TUNE=y
+CONFIG_YENTA_TOSHIBA=y
+CONFIG_PCMCIA_PROBE=y
+CONFIG_PCCARD_NONSTATIC=y
+CONFIG_HOTPLUG_PCI=y
+# CONFIG_HOTPLUG_PCI_PCIE is not set
+# CONFIG_HOTPLUG_PCI_FAKE is not set
+# CONFIG_HOTPLUG_PCI_COMPAQ is not set
+# CONFIG_HOTPLUG_PCI_IBM is not set
+# CONFIG_HOTPLUG_PCI_ACPI is not set
+# CONFIG_HOTPLUG_PCI_CPCI is not set
+# CONFIG_HOTPLUG_PCI_SHPC is not set
+
+#
+# Executable file formats / Emulations
+#
+CONFIG_BINFMT_ELF=y
+# CONFIG_CORE_DUMP_DEFAULT_ELF_HEADERS is not set
+CONFIG_HAVE_AOUT=y
+# CONFIG_BINFMT_AOUT is not set
+CONFIG_BINFMT_MISC=y
+CONFIG_HAVE_ATOMIC_IOMAP=y
+CONFIG_NET=y
+
+#
+# Networking options
+#
+# CONFIG_NET_NS is not set
+CONFIG_PACKET=y
+CONFIG_PACKET_MMAP=y
+CONFIG_UNIX=y
+CONFIG_XFRM=y
+CONFIG_XFRM_USER=y
+CONFIG_XFRM_SUB_POLICY=y
+CONFIG_XFRM_MIGRATE=y
+CONFIG_XFRM_STATISTICS=y
+CONFIG_XFRM_IPCOMP=m
+CONFIG_NET_KEY=m
+CONFIG_NET_KEY_MIGRATE=y
+CONFIG_INET=y
+CONFIG_IP_MULTICAST=y
+# CONFIG_IP_ADVANCED_ROUTER is not set
+CONFIG_IP_FIB_HASH=y
+# CONFIG_IP_PNP is not set
+# CONFIG_NET_IPIP is not set
+# CONFIG_NET_IPGRE is not set
+CONFIG_IP_MROUTE=y
+CONFIG_IP_PIMSM_V1=y
+CONFIG_IP_PIMSM_V2=y
+# CONFIG_ARPD is not set
+CONFIG_SYN_COOKIES=y
+CONFIG_INET_AH=m
+CONFIG_INET_ESP=m
+CONFIG_INET_IPCOMP=m
+CONFIG_INET_XFRM_TUNNEL=m
+CONFIG_INET_TUNNEL=m
+CONFIG_INET_XFRM_MODE_TRANSPORT=m
+CONFIG_INET_XFRM_MODE_TUNNEL=m
+CONFIG_INET_XFRM_MODE_BEET=m
+CONFIG_INET_LRO=y
+CONFIG_INET_DIAG=m
+CONFIG_INET_TCP_DIAG=m
+CONFIG_TCP_CONG_ADVANCED=y
+CONFIG_TCP_CONG_BIC=m
+CONFIG_TCP_CONG_CUBIC=y
+# CONFIG_TCP_CONG_WESTWOOD is not set
+# CONFIG_TCP_CONG_HTCP is not set
+# CONFIG_TCP_CONG_HSTCP is not set
+# CONFIG_TCP_CONG_HYBLA is not set
+# CONFIG_TCP_CONG_VEGAS is not set
+# CONFIG_TCP_CONG_SCALABLE is not set
+# CONFIG_TCP_CONG_LP is not set
+# CONFIG_TCP_CONG_VENO is not set
+# CONFIG_TCP_CONG_YEAH is not set
+# CONFIG_TCP_CONG_ILLINOIS is not set
+# CONFIG_DEFAULT_BIC is not set
+CONFIG_DEFAULT_CUBIC=y
+# CONFIG_DEFAULT_HTCP is not set
+# CONFIG_DEFAULT_VEGAS is not set
+# CONFIG_DEFAULT_WESTWOOD is not set
+# CONFIG_DEFAULT_RENO is not set
+CONFIG_DEFAULT_TCP_CONG="cubic"
+CONFIG_TCP_MD5SIG=y
+CONFIG_IPV6=y
+CONFIG_IPV6_PRIVACY=y
+CONFIG_IPV6_ROUTER_PREF=y
+CONFIG_IPV6_ROUTE_INFO=y
+CONFIG_IPV6_OPTIMISTIC_DAD=y
+CONFIG_INET6_AH=m
+CONFIG_INET6_ESP=m
+CONFIG_INET6_IPCOMP=m
+CONFIG_IPV6_MIP6=m
+CONFIG_INET6_XFRM_TUNNEL=m
+CONFIG_INET6_TUNNEL=m
+CONFIG_INET6_XFRM_MODE_TRANSPORT=m
+CONFIG_INET6_XFRM_MODE_TUNNEL=m
+CONFIG_INET6_XFRM_MODE_BEET=m
+CONFIG_INET6_XFRM_MODE_ROUTEOPTIMIZATION=m
+CONFIG_IPV6_SIT=m
+CONFIG_IPV6_NDISC_NODETYPE=y
+CONFIG_IPV6_TUNNEL=m
+CONFIG_IPV6_MULTIPLE_TABLES=y
+CONFIG_IPV6_SUBTREES=y
+# CONFIG_IPV6_MROUTE is not set
+CONFIG_NETWORK_SECMARK=y
+CONFIG_NETFILTER=y
+# CONFIG_NETFILTER_DEBUG is not set
+CONFIG_NETFILTER_ADVANCED=y
+
+#
+# Core Netfilter Configuration
+#
+CONFIG_NETFILTER_NETLINK=m
+CONFIG_NETFILTER_NETLINK_QUEUE=m
+CONFIG_NETFILTER_NETLINK_LOG=m
+CONFIG_NF_CONNTRACK=y
+CONFIG_NF_CT_ACCT=y
+CONFIG_NF_CONNTRACK_MARK=y
+CONFIG_NF_CONNTRACK_SECMARK=y
+CONFIG_NF_CONNTRACK_EVENTS=y
+# CONFIG_NF_CT_PROTO_DCCP is not set
+CONFIG_NF_CT_PROTO_GRE=m
+CONFIG_NF_CT_PROTO_SCTP=m
+CONFIG_NF_CT_PROTO_UDPLITE=m
+CONFIG_NF_CONNTRACK_AMANDA=m
+CONFIG_NF_CONNTRACK_FTP=m
+CONFIG_NF_CONNTRACK_H323=m
+CONFIG_NF_CONNTRACK_IRC=m
+CONFIG_NF_CONNTRACK_NETBIOS_NS=m
+CONFIG_NF_CONNTRACK_PPTP=m
+CONFIG_NF_CONNTRACK_SANE=m
+CONFIG_NF_CONNTRACK_SIP=m
+CONFIG_NF_CONNTRACK_TFTP=m
+CONFIG_NF_CT_NETLINK=m
+# CONFIG_NETFILTER_TPROXY is not set
+CONFIG_NETFILTER_XTABLES=y
+CONFIG_NETFILTER_XT_TARGET_CLASSIFY=m
+CONFIG_NETFILTER_XT_TARGET_CONNMARK=m
+CONFIG_NETFILTER_XT_TARGET_CONNSECMARK=m
+CONFIG_NETFILTER_XT_TARGET_DSCP=m
+CONFIG_NETFILTER_XT_TARGET_MARK=m
+CONFIG_NETFILTER_XT_TARGET_NFLOG=m
+CONFIG_NETFILTER_XT_TARGET_NFQUEUE=m
+CONFIG_NETFILTER_XT_TARGET_NOTRACK=m
+CONFIG_NETFILTER_XT_TARGET_RATEEST=m
+CONFIG_NETFILTER_XT_TARGET_TRACE=m
+CONFIG_NETFILTER_XT_TARGET_SECMARK=m
+CONFIG_NETFILTER_XT_TARGET_TCPMSS=m
+CONFIG_NETFILTER_XT_TARGET_TCPOPTSTRIP=m
+CONFIG_NETFILTER_XT_MATCH_COMMENT=m
+CONFIG_NETFILTER_XT_MATCH_CONNBYTES=m
+CONFIG_NETFILTER_XT_MATCH_CONNLIMIT=m
+CONFIG_NETFILTER_XT_MATCH_CONNMARK=m
+CONFIG_NETFILTER_XT_MATCH_CONNTRACK=m
+# CONFIG_NETFILTER_XT_MATCH_DCCP is not set
+CONFIG_NETFILTER_XT_MATCH_DSCP=m
+CONFIG_NETFILTER_XT_MATCH_ESP=m
+CONFIG_NETFILTER_XT_MATCH_HASHLIMIT=m
+CONFIG_NETFILTER_XT_MATCH_HELPER=m
+CONFIG_NETFILTER_XT_MATCH_IPRANGE=m
+CONFIG_NETFILTER_XT_MATCH_LENGTH=m
+CONFIG_NETFILTER_XT_MATCH_LIMIT=m
+CONFIG_NETFILTER_XT_MATCH_MAC=m
+CONFIG_NETFILTER_XT_MATCH_MARK=m
+CONFIG_NETFILTER_XT_MATCH_MULTIPORT=m
+CONFIG_NETFILTER_XT_MATCH_OWNER=m
+CONFIG_NETFILTER_XT_MATCH_POLICY=m
+CONFIG_NETFILTER_XT_MATCH_PKTTYPE=m
+CONFIG_NETFILTER_XT_MATCH_QUOTA=m
+CONFIG_NETFILTER_XT_MATCH_RATEEST=m
+CONFIG_NETFILTER_XT_MATCH_REALM=m
+# CONFIG_NETFILTER_XT_MATCH_RECENT is not set
+CONFIG_NETFILTER_XT_MATCH_SCTP=m
+CONFIG_NETFILTER_XT_MATCH_STATE=y
+CONFIG_NETFILTER_XT_MATCH_STATISTIC=m
+CONFIG_NETFILTER_XT_MATCH_STRING=m
+CONFIG_NETFILTER_XT_MATCH_TCPMSS=m
+CONFIG_NETFILTER_XT_MATCH_TIME=m
+CONFIG_NETFILTER_XT_MATCH_U32=m
+# CONFIG_IP_VS is not set
+
+#
+# IP: Netfilter Configuration
+#
+CONFIG_NF_DEFRAG_IPV4=y
+CONFIG_NF_CONNTRACK_IPV4=y
+# CONFIG_NF_CONNTRACK_PROC_COMPAT is not set
+CONFIG_IP_NF_QUEUE=m
+CONFIG_IP_NF_IPTABLES=y
+CONFIG_IP_NF_MATCH_ADDRTYPE=m
+CONFIG_IP_NF_MATCH_AH=m
+CONFIG_IP_NF_MATCH_ECN=m
+CONFIG_IP_NF_MATCH_TTL=m
+CONFIG_IP_NF_FILTER=y
+CONFIG_IP_NF_TARGET_REJECT=y
+CONFIG_IP_NF_TARGET_LOG=m
+CONFIG_IP_NF_TARGET_ULOG=m
+CONFIG_NF_NAT=m
+CONFIG_NF_NAT_NEEDED=y
+CONFIG_IP_NF_TARGET_MASQUERADE=m
+CONFIG_IP_NF_TARGET_NETMAP=m
+CONFIG_IP_NF_TARGET_REDIRECT=m
+CONFIG_NF_NAT_SNMP_BASIC=m
+CONFIG_NF_NAT_PROTO_GRE=m
+CONFIG_NF_NAT_PROTO_UDPLITE=m
+CONFIG_NF_NAT_PROTO_SCTP=m
+CONFIG_NF_NAT_FTP=m
+CONFIG_NF_NAT_IRC=m
+CONFIG_NF_NAT_TFTP=m
+CONFIG_NF_NAT_AMANDA=m
+CONFIG_NF_NAT_PPTP=m
+CONFIG_NF_NAT_H323=m
+CONFIG_NF_NAT_SIP=m
+CONFIG_IP_NF_MANGLE=m
+CONFIG_IP_NF_TARGET_CLUSTERIP=m
+CONFIG_IP_NF_TARGET_ECN=m
+CONFIG_IP_NF_TARGET_TTL=m
+CONFIG_IP_NF_RAW=m
+CONFIG_IP_NF_ARPTABLES=m
+CONFIG_IP_NF_ARPFILTER=m
+CONFIG_IP_NF_ARP_MANGLE=m
+
+#
+# IPv6: Netfilter Configuration
+#
+CONFIG_NF_CONNTRACK_IPV6=y
+CONFIG_IP6_NF_QUEUE=m
+CONFIG_IP6_NF_IPTABLES=y
+CONFIG_IP6_NF_MATCH_AH=m
+CONFIG_IP6_NF_MATCH_EUI64=m
+CONFIG_IP6_NF_MATCH_FRAG=m
+CONFIG_IP6_NF_MATCH_OPTS=m
+CONFIG_IP6_NF_MATCH_HL=m
+CONFIG_IP6_NF_MATCH_IPV6HEADER=m
+CONFIG_IP6_NF_MATCH_MH=m
+CONFIG_IP6_NF_MATCH_RT=m
+CONFIG_IP6_NF_TARGET_LOG=m
+CONFIG_IP6_NF_FILTER=y
+CONFIG_IP6_NF_TARGET_REJECT=y
+CONFIG_IP6_NF_MANGLE=m
+CONFIG_IP6_NF_TARGET_HL=m
+CONFIG_IP6_NF_RAW=m
+# CONFIG_IP_DCCP is not set
+# CONFIG_IP_SCTP is not set
+# CONFIG_TIPC is not set
+# CONFIG_ATM is not set
+# CONFIG_BRIDGE is not set
+# CONFIG_NET_DSA is not set
+# CONFIG_VLAN_8021Q is not set
+# CONFIG_DECNET is not set
+# CONFIG_LLC2 is not set
+# CONFIG_IPX is not set
+# CONFIG_ATALK is not set
+# CONFIG_X25 is not set
+# CONFIG_LAPB is not set
+# CONFIG_ECONET is not set
+# CONFIG_WAN_ROUTER is not set
+# CONFIG_NET_SCHED is not set
+CONFIG_NET_CLS_ROUTE=y
+# CONFIG_DCB is not set
+
+#
+# Network testing
+#
+# CONFIG_NET_PKTGEN is not set
+# CONFIG_HAMRADIO is not set
+# CONFIG_CAN is not set
+# CONFIG_IRDA is not set
+CONFIG_BT=y
+CONFIG_BT_L2CAP=y
+CONFIG_BT_SCO=y
+CONFIG_BT_RFCOMM=y
+CONFIG_BT_RFCOMM_TTY=y
+CONFIG_BT_BNEP=y
+CONFIG_BT_BNEP_MC_FILTER=y
+CONFIG_BT_BNEP_PROTO_FILTER=y
+CONFIG_BT_HIDP=y
+
+#
+# Bluetooth device drivers
+#
+CONFIG_BT_HCIBTUSB=y
+CONFIG_BT_HCIBTSDIO=m
+CONFIG_BT_HCIUART=m
+CONFIG_BT_HCIUART_H4=y
+CONFIG_BT_HCIUART_BCSP=y
+CONFIG_BT_HCIUART_LL=y
+CONFIG_BT_HCIBCM203X=m
+CONFIG_BT_HCIBPA10X=m
+CONFIG_BT_HCIBFUSB=m
+CONFIG_BT_HCIVHCI=m
+# CONFIG_AF_RXRPC is not set
+# CONFIG_PHONET is not set
+CONFIG_FIB_RULES=y
+CONFIG_WIRELESS=y
+CONFIG_CFG80211=y
+# CONFIG_CFG80211_REG_DEBUG is not set
+CONFIG_NL80211=y
+CONFIG_WIRELESS_OLD_REGULATORY=y
+CONFIG_WIRELESS_EXT=y
+CONFIG_WIRELESS_EXT_SYSFS=y
+CONFIG_LIB80211=y
+CONFIG_LIB80211_CRYPT_WEP=m
+CONFIG_LIB80211_CRYPT_CCMP=m
+CONFIG_LIB80211_CRYPT_TKIP=m
+CONFIG_MAC80211=y
+
+#
+# Rate control algorithm selection
+#
+CONFIG_MAC80211_RC_PID=y
+# CONFIG_MAC80211_RC_MINSTREL is not set
+CONFIG_MAC80211_RC_DEFAULT_PID=y
+# CONFIG_MAC80211_RC_DEFAULT_MINSTREL is not set
+CONFIG_MAC80211_RC_DEFAULT="pid"
+CONFIG_MAC80211_MESH=y
+CONFIG_MAC80211_LEDS=y
+CONFIG_MAC80211_DEBUGFS=y
+# CONFIG_MAC80211_DEBUG_MENU is not set
+CONFIG_IEEE80211=m
+# CONFIG_IEEE80211_DEBUG is not set
+CONFIG_IEEE80211_CRYPT_WEP=m
+CONFIG_IEEE80211_CRYPT_CCMP=m
+CONFIG_IEEE80211_CRYPT_TKIP=m
+CONFIG_WIMAX=m
+CONFIG_WIMAX_DEBUG_LEVEL=8
+CONFIG_RFKILL=y
+CONFIG_RFKILL_INPUT=y
+CONFIG_RFKILL_LEDS=y
+# CONFIG_NET_9P is not set
+
+#
+# Device Drivers
+#
+
+#
+# Generic Driver Options
+#
+CONFIG_UEVENT_HELPER_PATH=""
+CONFIG_STANDALONE=y
+CONFIG_PREVENT_FIRMWARE_BUILD=y
+CONFIG_FW_LOADER=y
+CONFIG_FIRMWARE_IN_KERNEL=y
+CONFIG_EXTRA_FIRMWARE=""
+# CONFIG_DEBUG_DRIVER is not set
+CONFIG_DEBUG_DEVRES=y
+# CONFIG_SYS_HYPERVISOR is not set
+# CONFIG_CONNECTOR is not set
+# CONFIG_MTD is not set
+# CONFIG_PARPORT is not set
+CONFIG_PNP=y
+# CONFIG_PNP_DEBUG_MESSAGES is not set
+
+#
+# Protocols
+#
+# CONFIG_ISAPNP is not set
+# CONFIG_PNPBIOS is not set
+CONFIG_PNPACPI=y
+CONFIG_BLK_DEV=y
+# CONFIG_BLK_DEV_FD is not set
+# CONFIG_BLK_DEV_XD is not set
+# CONFIG_BLK_CPQ_DA is not set
+# CONFIG_BLK_CPQ_CISS_DA is not set
+# CONFIG_BLK_DEV_DAC960 is not set
+# CONFIG_BLK_DEV_UMEM is not set
+# CONFIG_BLK_DEV_COW_COMMON is not set
+CONFIG_BLK_DEV_LOOP=y
+CONFIG_BLK_DEV_CRYPTOLOOP=m
+# CONFIG_BLK_DEV_NBD is not set
+# CONFIG_BLK_DEV_SX8 is not set
+# CONFIG_BLK_DEV_UB is not set
+CONFIG_BLK_DEV_RAM=m
+CONFIG_BLK_DEV_RAM_COUNT=16
+CONFIG_BLK_DEV_RAM_SIZE=16384
+# CONFIG_BLK_DEV_XIP is not set
+CONFIG_CDROM_PKTCDVD=m
+CONFIG_CDROM_PKTCDVD_BUFFERS=8
+# CONFIG_CDROM_PKTCDVD_WCACHE is not set
+# CONFIG_ATA_OVER_ETH is not set
+# CONFIG_BLK_DEV_HD is not set
+CONFIG_MISC_DEVICES=y
+# CONFIG_IBM_ASM is not set
+# CONFIG_PHANTOM is not set
+CONFIG_EEPROM_93CX6=m
+# CONFIG_SGI_IOC4 is not set
+CONFIG_TIFM_CORE=m
+# CONFIG_TIFM_7XX1 is not set
+CONFIG_ACER_WMI=y
+CONFIG_ASUS_LAPTOP=m
+CONFIG_FUJITSU_LAPTOP=m
+# CONFIG_FUJITSU_LAPTOP_DEBUG is not set
+CONFIG_TC1100_WMI=m
+CONFIG_HP_WMI=m
+# CONFIG_ICS932S401 is not set
+CONFIG_MSI_LAPTOP=m
+CONFIG_PANASONIC_LAPTOP=m
+CONFIG_COMPAL_LAPTOP=m
+CONFIG_SONY_LAPTOP=m
+# CONFIG_SONYPI_COMPAT is not set
+CONFIG_THINKPAD_ACPI=m
+# CONFIG_THINKPAD_ACPI_DEBUG is not set
+CONFIG_THINKPAD_ACPI_BAY=y
+CONFIG_THINKPAD_ACPI_VIDEO=y
+CONFIG_THINKPAD_ACPI_HOTKEY_POLL=y
+# CONFIG_INTEL_MENLOW is not set
+CONFIG_EEEPC_LAPTOP=m
+# CONFIG_ENCLOSURE_SERVICES is not set
+# CONFIG_HP_ILO is not set
+# CONFIG_C2PORT is not set
+CONFIG_HAVE_IDE=y
+# CONFIG_IDE is not set
+
+#
+# SCSI device support
+#
+CONFIG_RAID_ATTRS=m
+CONFIG_SCSI=y
+CONFIG_SCSI_DMA=y
+# CONFIG_SCSI_TGT is not set
+# CONFIG_SCSI_NETLINK is not set
+CONFIG_SCSI_PROC_FS=y
+
+#
+# SCSI support type (disk, tape, CD-ROM)
+#
+CONFIG_BLK_DEV_SD=y
+# CONFIG_CHR_DEV_ST is not set
+# CONFIG_CHR_DEV_OSST is not set
+CONFIG_BLK_DEV_SR=y
+CONFIG_BLK_DEV_SR_VENDOR=y
+CONFIG_CHR_DEV_SG=y
+# CONFIG_CHR_DEV_SCH is not set
+
+#
+# Some SCSI devices (e.g. CD jukebox) support multiple LUNs
+#
+CONFIG_SCSI_MULTI_LUN=y
+CONFIG_SCSI_CONSTANTS=y
+CONFIG_SCSI_LOGGING=y
+CONFIG_SCSI_SCAN_ASYNC=y
+CONFIG_SCSI_WAIT_SCAN=m
+
+#
+# SCSI Transports
+#
+# CONFIG_SCSI_SPI_ATTRS is not set
+# CONFIG_SCSI_FC_ATTRS is not set
+# CONFIG_SCSI_ISCSI_ATTRS is not set
+# CONFIG_SCSI_SAS_ATTRS is not set
+# CONFIG_SCSI_SAS_LIBSAS is not set
+# CONFIG_SCSI_SRP_ATTRS is not set
+CONFIG_SCSI_LOWLEVEL=y
+# CONFIG_ISCSI_TCP is not set
+# CONFIG_SCSI_CXGB3_ISCSI is not set
+# CONFIG_BLK_DEV_3W_XXXX_RAID is not set
+# CONFIG_SCSI_3W_9XXX is not set
+# CONFIG_SCSI_7000FASST is not set
+# CONFIG_SCSI_ACARD is not set
+# CONFIG_SCSI_AHA152X is not set
+# CONFIG_SCSI_AHA1542 is not set
+# CONFIG_SCSI_AACRAID is not set
+# CONFIG_SCSI_AIC7XXX is not set
+# CONFIG_SCSI_AIC7XXX_OLD is not set
+# CONFIG_SCSI_AIC79XX is not set
+# CONFIG_SCSI_AIC94XX is not set
+# CONFIG_SCSI_DPT_I2O is not set
+# CONFIG_SCSI_ADVANSYS is not set
+# CONFIG_SCSI_IN2000 is not set
+# CONFIG_SCSI_ARCMSR is not set
+# CONFIG_MEGARAID_NEWGEN is not set
+# CONFIG_MEGARAID_LEGACY is not set
+# CONFIG_MEGARAID_SAS is not set
+# CONFIG_SCSI_HPTIOP is not set
+# CONFIG_SCSI_BUSLOGIC is not set
+# CONFIG_LIBFC is not set
+# CONFIG_FCOE is not set
+# CONFIG_FCOE_FNIC is not set
+# CONFIG_SCSI_DMX3191D is not set
+# CONFIG_SCSI_DTC3280 is not set
+# CONFIG_SCSI_EATA is not set
+# CONFIG_SCSI_FUTURE_DOMAIN is not set
+# CONFIG_SCSI_GDTH is not set
+# CONFIG_SCSI_GENERIC_NCR5380 is not set
+# CONFIG_SCSI_GENERIC_NCR5380_MMIO is not set
+# CONFIG_SCSI_IPS is not set
+# CONFIG_SCSI_INITIO is not set
+# CONFIG_SCSI_INIA100 is not set
+# CONFIG_SCSI_MVSAS is not set
+# CONFIG_SCSI_NCR53C406A is not set
+# CONFIG_SCSI_STEX is not set
+# CONFIG_SCSI_SYM53C8XX_2 is not set
+# CONFIG_SCSI_IPR is not set
+# CONFIG_SCSI_PAS16 is not set
+# CONFIG_SCSI_QLOGIC_FAS is not set
+# CONFIG_SCSI_QLOGIC_1280 is not set
+# CONFIG_SCSI_QLA_FC is not set
+# CONFIG_SCSI_QLA_ISCSI is not set
+# CONFIG_SCSI_LPFC is not set
+# CONFIG_SCSI_SYM53C416 is not set
+# CONFIG_SCSI_DC395x is not set
+# CONFIG_SCSI_DC390T is not set
+# CONFIG_SCSI_T128 is not set
+# CONFIG_SCSI_U14_34F is not set
+# CONFIG_SCSI_ULTRASTOR is not set
+# CONFIG_SCSI_NSP32 is not set
+# CONFIG_SCSI_DEBUG is not set
+# CONFIG_SCSI_SRP is not set
+# CONFIG_SCSI_DH is not set
+CONFIG_ATA=y
+# CONFIG_ATA_NONSTANDARD is not set
+CONFIG_ATA_ACPI=y
+# CONFIG_SATA_PMP is not set
+CONFIG_SATA_AHCI=y
+CONFIG_SATA_SIL24=y
+CONFIG_ATA_SFF=y
+# CONFIG_SATA_SVW is not set
+CONFIG_ATA_PIIX=y
+# CONFIG_SATA_MV is not set
+# CONFIG_SATA_NV is not set
+# CONFIG_PDC_ADMA is not set
+# CONFIG_SATA_QSTOR is not set
+# CONFIG_SATA_PROMISE is not set
+# CONFIG_SATA_SX4 is not set
+CONFIG_SATA_SIL=y
+# CONFIG_SATA_SIS is not set
+# CONFIG_SATA_ULI is not set
+# CONFIG_SATA_VIA is not set
+# CONFIG_SATA_VITESSE is not set
+# CONFIG_SATA_INIC162X is not set
+# CONFIG_PATA_ACPI is not set
+# CONFIG_PATA_ALI is not set
+# CONFIG_PATA_AMD is not set
+# CONFIG_PATA_ARTOP is not set
+# CONFIG_PATA_ATIIXP is not set
+# CONFIG_PATA_CMD640_PCI is not set
+# CONFIG_PATA_CMD64X is not set
+# CONFIG_PATA_CS5520 is not set
+# CONFIG_PATA_CS5530 is not set
+# CONFIG_PATA_CS5535 is not set
+# CONFIG_PATA_CS5536 is not set
+# CONFIG_PATA_CYPRESS is not set
+# CONFIG_PATA_EFAR is not set
+CONFIG_ATA_GENERIC=y
+# CONFIG_PATA_HPT366 is not set
+# CONFIG_PATA_HPT37X is not set
+# CONFIG_PATA_HPT3X2N is not set
+# CONFIG_PATA_HPT3X3 is not set
+# CONFIG_PATA_ISAPNP is not set
+# CONFIG_PATA_IT821X is not set
+# CONFIG_PATA_IT8213 is not set
+# CONFIG_PATA_JMICRON is not set
+# CONFIG_PATA_LEGACY is not set
+# CONFIG_PATA_TRIFLEX is not set
+# CONFIG_PATA_MARVELL is not set
+CONFIG_PATA_MPIIX=y
+# CONFIG_PATA_OLDPIIX is not set
+# CONFIG_PATA_NETCELL is not set
+# CONFIG_PATA_NINJA32 is not set
+# CONFIG_PATA_NS87410 is not set
+# CONFIG_PATA_NS87415 is not set
+# CONFIG_PATA_OPTI is not set
+# CONFIG_PATA_OPTIDMA is not set
+# CONFIG_PATA_PDC_OLD is not set
+# CONFIG_PATA_QDI is not set
+# CONFIG_PATA_RADISYS is not set
+# CONFIG_PATA_RZ1000 is not set
+# CONFIG_PATA_SC1200 is not set
+# CONFIG_PATA_SERVERWORKS is not set
+# CONFIG_PATA_PDC2027X is not set
+# CONFIG_PATA_SIL680 is not set
+# CONFIG_PATA_SIS is not set
+# CONFIG_PATA_VIA is not set
+# CONFIG_PATA_WINBOND is not set
+# CONFIG_PATA_WINBOND_VLB is not set
+CONFIG_PATA_SCH=y
+CONFIG_MD=y
+# CONFIG_BLK_DEV_MD is not set
+CONFIG_BLK_DEV_DM=m
+CONFIG_DM_DEBUG=y
+# CONFIG_DM_CRYPT is not set
+CONFIG_DM_SNAPSHOT=m
+CONFIG_DM_MIRROR=m
+CONFIG_DM_ZERO=m
+CONFIG_DM_MULTIPATH=m
+CONFIG_DM_DELAY=m
+# CONFIG_DM_UEVENT is not set
+CONFIG_FUSION=y
+CONFIG_FUSION_SPI=y
+CONFIG_FUSION_FC=m
+CONFIG_FUSION_SAS=m
+CONFIG_FUSION_MAX_SGE=40
+CONFIG_FUSION_CTL=m
+CONFIG_FUSION_LAN=m
+CONFIG_FUSION_LOGGING=y
+
+#
+# IEEE 1394 (FireWire) support
+#
+
+#
+# Enable only one of the two stacks, unless you know what you are doing
+#
+# CONFIG_FIREWIRE is not set
+# CONFIG_IEEE1394 is not set
+# CONFIG_I2O is not set
+# CONFIG_MACINTOSH_DRIVERS is not set
+CONFIG_NETDEVICES=y
+# CONFIG_DUMMY is not set
+# CONFIG_BONDING is not set
+CONFIG_MACVLAN=m
+# CONFIG_EQUALIZER is not set
+CONFIG_TUN=y
+# CONFIG_VETH is not set
+# CONFIG_NET_SB1000 is not set
+# CONFIG_ARCNET is not set
+CONFIG_PHYLIB=m
+
+#
+# MII PHY device drivers
+#
+CONFIG_MARVELL_PHY=m
+CONFIG_DAVICOM_PHY=m
+CONFIG_QSEMI_PHY=m
+CONFIG_LXT_PHY=m
+CONFIG_CICADA_PHY=m
+CONFIG_VITESSE_PHY=m
+CONFIG_SMSC_PHY=m
+CONFIG_BROADCOM_PHY=m
+CONFIG_ICPLUS_PHY=m
+CONFIG_REALTEK_PHY=m
+CONFIG_MDIO_BITBANG=m
+CONFIG_NET_ETHERNET=y
+CONFIG_MII=y
+# CONFIG_NATIONAL_PHY is not set
+# CONFIG_STE10XP is not set
+# CONFIG_LSI_ET1011C_PHY is not set
+# CONFIG_HAPPYMEAL is not set
+# CONFIG_SUNGEM is not set
+# CONFIG_CASSINI is not set
+# CONFIG_NET_VENDOR_3COM is not set
+# CONFIG_LANCE is not set
+# CONFIG_NET_VENDOR_SMC is not set
+# CONFIG_NET_VENDOR_RACAL is not set
+# CONFIG_NET_TULIP is not set
+# CONFIG_AT1700 is not set
+# CONFIG_DEPCA is not set
+# CONFIG_HP100 is not set
+# CONFIG_NET_ISA is not set
+# CONFIG_IBM_NEW_EMAC_ZMII is not set
+# CONFIG_IBM_NEW_EMAC_RGMII is not set
+# CONFIG_IBM_NEW_EMAC_TAH is not set
+# CONFIG_IBM_NEW_EMAC_EMAC4 is not set
+# CONFIG_IBM_NEW_EMAC_NO_FLOW_CTRL is not set
+# CONFIG_IBM_NEW_EMAC_MAL_CLR_ICINTSTAT is not set
+# CONFIG_IBM_NEW_EMAC_MAL_COMMON_ERR is not set
+CONFIG_NET_PCI=y
+CONFIG_PCNET32=m
+# CONFIG_AMD8111_ETH is not set
+# CONFIG_ADAPTEC_STARFIRE is not set
+# CONFIG_AC3200 is not set
+# CONFIG_APRICOT is not set
+# CONFIG_B44 is not set
+# CONFIG_FORCEDETH is not set
+# CONFIG_CS89x0 is not set
+# CONFIG_EEPRO100 is not set
+CONFIG_E100=y
+# CONFIG_FEALNX is not set
+# CONFIG_NATSEMI is not set
+# CONFIG_NE2K_PCI is not set
+CONFIG_8139CP=m
+CONFIG_8139TOO=m
+CONFIG_8139TOO_PIO=y
+# CONFIG_8139TOO_TUNE_TWISTER is not set
+# CONFIG_8139TOO_8129 is not set
+# CONFIG_8139_OLD_RX_RESET is not set
+# CONFIG_R6040 is not set
+CONFIG_SIS900=m
+# CONFIG_EPIC100 is not set
+# CONFIG_SMSC9420 is not set
+# CONFIG_SUNDANCE is not set
+# CONFIG_TLAN is not set
+# CONFIG_VIA_RHINE is not set
+# CONFIG_SC92031 is not set
+CONFIG_ATL2=m
+CONFIG_NETDEV_1000=y
+# CONFIG_ACENIC is not set
+# CONFIG_DL2K is not set
+CONFIG_E1000=y
+CONFIG_E1000E=y
+# CONFIG_IP1000 is not set
+CONFIG_IGB=y
+# CONFIG_IGB_LRO is not set
+# CONFIG_NS83820 is not set
+# CONFIG_HAMACHI is not set
+# CONFIG_YELLOWFIN is not set
+CONFIG_R8169=y
+CONFIG_SIS190=m
+# CONFIG_SKGE is not set
+CONFIG_SKY2=m
+# CONFIG_SKY2_DEBUG is not set
+# CONFIG_VIA_VELOCITY is not set
+CONFIG_TIGON3=m
+CONFIG_BNX2=m
+# CONFIG_QLA3XXX is not set
+CONFIG_ATL1=m
+CONFIG_ATL1E=y
+# CONFIG_JME is not set
+CONFIG_NETDEV_10000=y
+# CONFIG_CHELSIO_T1 is not set
+# CONFIG_CHELSIO_T3 is not set
+# CONFIG_ENIC is not set
+CONFIG_IXGBE=m
+CONFIG_IXGB=m
+# CONFIG_S2IO is not set
+# CONFIG_MYRI10GE is not set
+# CONFIG_NETXEN_NIC is not set
+# CONFIG_NIU is not set
+# CONFIG_MLX4_EN is not set
+# CONFIG_MLX4_CORE is not set
+# CONFIG_TEHUTI is not set
+CONFIG_BNX2X=m
+# CONFIG_QLGE is not set
+# CONFIG_SFC is not set
+# CONFIG_TR is not set
+
+#
+# Wireless LAN
+#
+CONFIG_WLAN_PRE80211=y
+# CONFIG_STRIP is not set
+# CONFIG_ARLAN is not set
+# CONFIG_WAVELAN is not set
+CONFIG_WLAN_80211=y
+CONFIG_IPW2100=m
+# CONFIG_IPW2100_MONITOR is not set
+# CONFIG_IPW2100_DEBUG is not set
+CONFIG_IPW2200=m
+# CONFIG_IPW2200_MONITOR is not set
+CONFIG_IPW2200_QOS=y
+# CONFIG_IPW2200_DEBUG is not set
+# CONFIG_LIBIPW_DEBUG is not set
+CONFIG_LIBERTAS=y
+# CONFIG_LIBERTAS_THINFIRM is not set
+CONFIG_LIBERTAS_USB=m
+CONFIG_LIBERTAS_SDIO=y
+CONFIG_LIBERTAS_SPI=y
+# CONFIG_LIBERTAS_DEBUG is not set
+# CONFIG_AIRO is not set
+# CONFIG_HERMES is not set
+# CONFIG_ATMEL is not set
+# CONFIG_PRISM54 is not set
+CONFIG_USB_ZD1201=m
+CONFIG_USB_NET_RNDIS_WLAN=m
+CONFIG_RTL8180=m
+CONFIG_RTL8187=m
+# CONFIG_ADM8211 is not set
+# CONFIG_MAC80211_HWSIM is not set
+CONFIG_P54_COMMON=m
+CONFIG_P54_USB=m
+CONFIG_P54_PCI=m
+CONFIG_ATH5K=y
+CONFIG_ATH9K=m
+# CONFIG_ATH9K_DEBUG is not set
+CONFIG_IWLWIFI=m
+CONFIG_IWLCORE=m
+# CONFIG_IWLWIFI_LEDS is not set
+CONFIG_IWLWIFI_RFKILL=y
+# CONFIG_IWLWIFI_DEBUG is not set
+CONFIG_IWLAGN=m
+# CONFIG_IWLAGN_SPECTRUM_MEASUREMENT is not set
+# CONFIG_IWLAGN_LEDS is not set
+CONFIG_IWL4965=y
+CONFIG_IWL5000=y
+CONFIG_IWL3945=m
+CONFIG_IWL3945_RFKILL=y
+# CONFIG_IWL3945_SPECTRUM_MEASUREMENT is not set
+# CONFIG_IWL3945_LEDS is not set
+# CONFIG_IWL3945_DEBUG is not set
+# CONFIG_HOSTAP is not set
+# CONFIG_B43 is not set
+CONFIG_B43_PCI_AUTOSELECT=y
+CONFIG_B43_PCICORE_AUTOSELECT=y
+CONFIG_B43_LEDS=y
+CONFIG_B43_RFKILL=y
+# CONFIG_B43_DEBUG is not set
+# CONFIG_B43LEGACY is not set
+# CONFIG_ZD1211RW is not set
+CONFIG_RT2X00=m
+CONFIG_RT2400PCI=m
+CONFIG_RT2500PCI=m
+CONFIG_RT61PCI=m
+CONFIG_RT2500USB=m
+CONFIG_RT73USB=m
+CONFIG_RT2X00_LIB_PCI=m
+CONFIG_RT2X00_LIB_USB=m
+CONFIG_RT2X00_LIB=m
+CONFIG_RT2X00_LIB_FIRMWARE=y
+CONFIG_RT2X00_LIB_CRYPTO=y
+CONFIG_RT2X00_LIB_RFKILL=y
+CONFIG_RT2X00_LIB_LEDS=y
+# CONFIG_RT2X00_LIB_DEBUGFS is not set
+# CONFIG_RT2X00_DEBUG is not set
+
+#
+# WiMAX Wireless Broadband devices
+#
+CONFIG_WIMAX_I2400M_USB=m
+CONFIG_WIMAX_I2400M_DEBUG_LEVEL=8
+# CONFIG_WIMAX_I2400M_SDIO is not set
+#
+#
+
+#
+# USB Network Adapters
+#
+CONFIG_USB_CATC=m
+CONFIG_USB_KAWETH=m
+CONFIG_USB_PEGASUS=m
+CONFIG_USB_RTL8150=m
+CONFIG_USB_USBNET=m
+CONFIG_USB_NET_AX8817X=m
+CONFIG_USB_NET_CDCETHER=m
+CONFIG_USB_NET_CDC_EEM=m
+CONFIG_USB_NET_DM9601=m
+CONFIG_USB_NET_SMSC95XX=m
+CONFIG_USB_NET_GL620A=m
+CONFIG_USB_NET_NET1080=m
+CONFIG_USB_NET_PLUSB=m
+CONFIG_USB_NET_MCS7830=m
+CONFIG_USB_NET_RNDIS_HOST=m
+CONFIG_USB_NET_CDC_SUBSET=m
+CONFIG_USB_ALI_M5632=y
+CONFIG_USB_AN2720=y
+CONFIG_USB_BELKIN=y
+CONFIG_USB_ARMLINUX=y
+CONFIG_USB_EPSON2888=y
+CONFIG_USB_KC2190=y
+CONFIG_USB_NET_ZAURUS=m
+CONFIG_USB_HSO=n
+# CONFIG_WAN is not set
+# CONFIG_FDDI is not set
+# CONFIG_HIPPI is not set
+CONFIG_PPP=m
+CONFIG_PPP_MULTILINK=y
+CONFIG_PPP_FILTER=y
+CONFIG_PPP_ASYNC=m
+CONFIG_PPP_SYNC_TTY=m
+CONFIG_PPP_DEFLATE=m
+CONFIG_PPP_BSDCOMP=m
+CONFIG_PPP_MPPE=m
+CONFIG_PPPOE=m
+CONFIG_PPPOL2TP=m
+# CONFIG_SLIP is not set
+CONFIG_SLHC=m
+# CONFIG_NET_FC is not set
+# CONFIG_NETCONSOLE is not set
+# CONFIG_NETPOLL is not set
+# CONFIG_NET_POLL_CONTROLLER is not set
+# CONFIG_ISDN is not set
+# CONFIG_PHONE is not set
+
+#
+# Input device support
+#
+CONFIG_INPUT=y
+CONFIG_INPUT_FF_MEMLESS=y
+CONFIG_INPUT_POLLDEV=m
+
+#
+# Userland interfaces
+#
+CONFIG_INPUT_MOUSEDEV=y
+# CONFIG_INPUT_MOUSEDEV_PSAUX is not set
+CONFIG_INPUT_MOUSEDEV_SCREEN_X=1024
+CONFIG_INPUT_MOUSEDEV_SCREEN_Y=768
+CONFIG_INPUT_JOYDEV=m
+CONFIG_INPUT_EVDEV=y
+# CONFIG_INPUT_EVBUG is not set
+
+#
+# Input Device Drivers
+#
+CONFIG_INPUT_KEYBOARD=y
+CONFIG_KEYBOARD_ATKBD=y
+# CONFIG_KEYBOARD_SUNKBD is not set
+# CONFIG_KEYBOARD_LKKBD is not set
+# CONFIG_KEYBOARD_XTKBD is not set
+# CONFIG_KEYBOARD_NEWTON is not set
+# CONFIG_KEYBOARD_STOWAWAY is not set
+CONFIG_INPUT_MOUSE=y
+CONFIG_MOUSE_PS2=y
+CONFIG_MOUSE_PS2_ALPS=y
+CONFIG_MOUSE_PS2_LOGIPS2PP=y
+CONFIG_MOUSE_PS2_SYNAPTICS=y
+CONFIG_MOUSE_PS2_LIFEBOOK=y
+CONFIG_MOUSE_PS2_TRACKPOINT=y
+# CONFIG_MOUSE_PS2_ELANTECH is not set
+CONFIG_MOUSE_PS2_TOUCHKIT=y
+CONFIG_MOUSE_SERIAL=m
+# CONFIG_MOUSE_APPLETOUCH is not set
+# CONFIG_MOUSE_BCM5974 is not set
+# CONFIG_MOUSE_INPORT is not set
+# CONFIG_MOUSE_LOGIBM is not set
+# CONFIG_MOUSE_PC110PAD is not set
+CONFIG_MOUSE_VSXXXAA=m
+CONFIG_INPUT_JOYSTICK=y
+# CONFIG_JOYSTICK_ANALOG is not set
+# CONFIG_JOYSTICK_A3D is not set
+# CONFIG_JOYSTICK_ADI is not set
+# CONFIG_JOYSTICK_COBRA is not set
+# CONFIG_JOYSTICK_GF2K is not set
+# CONFIG_JOYSTICK_GRIP is not set
+# CONFIG_JOYSTICK_GRIP_MP is not set
+# CONFIG_JOYSTICK_GUILLEMOT is not set
+# CONFIG_JOYSTICK_INTERACT is not set
+# CONFIG_JOYSTICK_SIDEWINDER is not set
+# CONFIG_JOYSTICK_TMDC is not set
+# CONFIG_JOYSTICK_IFORCE is not set
+# CONFIG_JOYSTICK_WARRIOR is not set
+# CONFIG_JOYSTICK_MAGELLAN is not set
+# CONFIG_JOYSTICK_SPACEORB is not set
+# CONFIG_JOYSTICK_SPACEBALL is not set
+# CONFIG_JOYSTICK_STINGER is not set
+# CONFIG_JOYSTICK_TWIDJOY is not set
+# CONFIG_JOYSTICK_ZHENHUA is not set
+# CONFIG_JOYSTICK_JOYDUMP is not set
+# CONFIG_JOYSTICK_XPAD is not set
+# CONFIG_INPUT_TABLET is not set
+CONFIG_INPUT_TOUCHSCREEN=y
+CONFIG_TOUCHSCREEN_FUJITSU=m
+CONFIG_TOUCHSCREEN_GUNZE=m
+CONFIG_TOUCHSCREEN_ELO=m
+# CONFIG_TOUCHSCREEN_WACOM_W8001 is not set
+CONFIG_TOUCHSCREEN_MTOUCH=m
+CONFIG_TOUCHSCREEN_INEXIO=m
+CONFIG_TOUCHSCREEN_MK712=m
+CONFIG_TOUCHSCREEN_HTCPEN=m
+CONFIG_TOUCHSCREEN_PENMOUNT=m
+CONFIG_TOUCHSCREEN_TOUCHRIGHT=m
+CONFIG_TOUCHSCREEN_TOUCHWIN=m
+CONFIG_TOUCHSCREEN_WM97XX=m
+CONFIG_TOUCHSCREEN_WM9705=y
+CONFIG_TOUCHSCREEN_WM9712=y
+CONFIG_TOUCHSCREEN_WM9713=y
+CONFIG_TOUCHSCREEN_USB_COMPOSITE=m
+CONFIG_TOUCHSCREEN_USB_EGALAX=y
+CONFIG_TOUCHSCREEN_USB_PANJIT=y
+CONFIG_TOUCHSCREEN_USB_3M=y
+CONFIG_TOUCHSCREEN_USB_ITM=y
+CONFIG_TOUCHSCREEN_USB_ETURBO=y
+CONFIG_TOUCHSCREEN_USB_GUNZE=y
+CONFIG_TOUCHSCREEN_USB_DMC_TSC10=y
+CONFIG_TOUCHSCREEN_USB_IRTOUCH=y
+CONFIG_TOUCHSCREEN_USB_IDEALTEK=y
+CONFIG_TOUCHSCREEN_USB_GENERAL_TOUCH=y
+CONFIG_TOUCHSCREEN_USB_GOTOP=y
+CONFIG_TOUCHSCREEN_TOUCHIT213=m
+# CONFIG_TOUCHSCREEN_TSC2007 is not set
+CONFIG_INPUT_MISC=y
+# CONFIG_INPUT_PCSPKR is not set
+# CONFIG_INPUT_APANEL is not set
+CONFIG_INPUT_WISTRON_BTNS=m
+# CONFIG_INPUT_ATLAS_BTNS is not set
+# CONFIG_INPUT_ATI_REMOTE is not set
+# CONFIG_INPUT_ATI_REMOTE2 is not set
+CONFIG_INPUT_KEYSPAN_REMOTE=m
+CONFIG_INPUT_POWERMATE=m
+CONFIG_INPUT_YEALINK=m
+# CONFIG_INPUT_CM109 is not set
+# CONFIG_INPUT_UINPUT is not set
+
+#
+# Hardware I/O ports
+#
+CONFIG_SERIO=y
+CONFIG_SERIO_I8042=y
+CONFIG_SERIO_SERPORT=y
+# CONFIG_SERIO_CT82C710 is not set
+# CONFIG_SERIO_PCIPS2 is not set
+CONFIG_SERIO_LIBPS2=y
+CONFIG_SERIO_RAW=m
+# CONFIG_GAMEPORT is not set
+
+#
+# Character devices
+#
+CONFIG_VT=y
+CONFIG_CONSOLE_TRANSLATIONS=y
+CONFIG_VT_CONSOLE=y
+CONFIG_HW_CONSOLE=y
+CONFIG_VT_HW_CONSOLE_BINDING=y
+# CONFIG_DEVKMEM is not set
+# CONFIG_SERIAL_NONSTANDARD is not set
+# CONFIG_NOZOMI is not set
+
+#
+# Serial drivers
+#
+CONFIG_SERIAL_8250=y
+CONFIG_SERIAL_8250_CONSOLE=y
+CONFIG_FIX_EARLYCON_MEM=y
+CONFIG_SERIAL_8250_PCI=y
+CONFIG_SERIAL_8250_PNP=y
+CONFIG_SERIAL_8250_NR_UARTS=4
+CONFIG_SERIAL_8250_RUNTIME_UARTS=4
+# CONFIG_SERIAL_8250_EXTENDED is not set
+
+#
+# Non-8250 serial port support
+#
+# CONFIG_SERIAL_MAX3110 is not set
+# CONFIG_MRST_MAX3110 is not set
+# CONFIG_MRST_MAX3110_IRQ is not set
+CONFIG_SERIAL_CORE=y
+CONFIG_SERIAL_CORE_CONSOLE=y
+# CONFIG_SERIAL_JSM is not set
+CONFIG_UNIX98_PTYS=y
+# CONFIG_DEVPTS_MULTIPLE_INSTANCES is not set
+# CONFIG_LEGACY_PTYS is not set
+# CONFIG_IPMI_HANDLER is not set
+CONFIG_HW_RANDOM=m
+# CONFIG_HW_RANDOM_INTEL is not set
+# CONFIG_HW_RANDOM_AMD is not set
+# CONFIG_HW_RANDOM_GEODE is not set
+# CONFIG_HW_RANDOM_VIA is not set
+CONFIG_NVRAM=m
+# CONFIG_DTLK is not set
+# CONFIG_R3964 is not set
+# CONFIG_APPLICOM is not set
+# CONFIG_SONYPI is not set
+# CONFIG_MWAVE is not set
+# CONFIG_PC8736x_GPIO is not set
+# CONFIG_NSC_GPIO is not set
+# CONFIG_CS5535_GPIO is not set
+# CONFIG_RAW_DRIVER is not set
+CONFIG_HPET=y
+# CONFIG_HPET_MMAP is not set
+# CONFIG_HANGCHECK_TIMER is not set
+# CONFIG_TCG_TPM is not set
+# CONFIG_TELCLOCK is not set
+CONFIG_DEVPORT=y
+CONFIG_I2C=y
+CONFIG_I2C_BOARDINFO=y
+# CONFIG_I2C_CHARDEV is not set
+# CONFIG_I2C_HELPER_AUTO is not set
+
+#
+# I2C Algorithms
+#
+# CONFIG_I2C_ALGOBIT is not set
+# CONFIG_I2C_ALGOPCF is not set
+# CONFIG_I2C_ALGOPCA is not set
+
+#
+# I2C Hardware Bus support
+#
+
+#
+# PC SMBus host controller drivers
+#
+# CONFIG_I2C_ALI1535 is not set
+# CONFIG_I2C_ALI1563 is not set
+# CONFIG_I2C_ALI15X3 is not set
+# CONFIG_I2C_AMD756 is not set
+# CONFIG_I2C_AMD8111 is not set
+# CONFIG_I2C_I801 is not set
+# CONFIG_I2C_ISCH is not set
+# CONFIG_I2C_PIIX4 is not set
+# CONFIG_I2C_NFORCE2 is not set
+# CONFIG_I2C_SIS5595 is not set
+# CONFIG_I2C_SIS630 is not set
+# CONFIG_I2C_SIS96X is not set
+# CONFIG_I2C_VIA is not set
+# CONFIG_I2C_VIAPRO is not set
+
+#
+# I2C system bus drivers (mostly embedded / system-on-chip)
+#
+# CONFIG_I2C_OCORES is not set
+# CONFIG_I2C_SIMTEC is not set
+
+#
+# External I2C/SMBus adapter drivers
+#
+# CONFIG_I2C_PARPORT_LIGHT is not set
+# CONFIG_I2C_TAOS_EVM is not set
+# CONFIG_I2C_TINY_USB is not set
+
+#
+# Graphics adapter I2C/DDC channel drivers
+#
+# CONFIG_I2C_VOODOO3 is not set
+
+#
+# Other I2C/SMBus bus drivers
+#
+# CONFIG_I2C_PCA_ISA is not set
+# CONFIG_I2C_PCA_PLATFORM is not set
+# CONFIG_I2C_STUB is not set
+# CONFIG_SCx200_ACB is not set
+
+#
+# Miscellaneous I2C Chip support
+#
+# CONFIG_DS1682 is not set
+# CONFIG_AT24 is not set
+# CONFIG_SENSORS_EEPROM is not set
+# CONFIG_EEPROM_AT24 is not set
+# CONFIG_EEPROM_LEGACY is not set
+# CONFIG_SENSORS_PCF8574 is not set
+# CONFIG_PCF8575 is not set
+# CONFIG_SENSORS_PCA9539 is not set
+# CONFIG_SENSORS_PCF8591 is not set
+# CONFIG_SENSORS_MAX6875 is not set
+# CONFIG_SENSORS_TSL2550 is not set
+# CONFIG_I2C_DEBUG_CORE is not set
+# CONFIG_I2C_DEBUG_ALGO is not set
+# CONFIG_I2C_DEBUG_BUS is not set
+# CONFIG_I2C_DEBUG_CHIP is not set
+# CONFIG_SPI is not set
+# CONFIG_SPI_MRST_SLAVE is not set
+# CONFIG_SPI_MRST_SLAVE_DMA is not set
+CONFIG_ARCH_WANT_OPTIONAL_GPIOLIB=y
+# CONFIG_GPIOLIB is not set
+# CONFIG_W1 is not set
+CONFIG_POWER_SUPPLY=y
+# CONFIG_POWER_SUPPLY_DEBUG is not set
+# CONFIG_PDA_POWER is not set
+# CONFIG_BATTERY_DS2760 is not set
+# CONFIG_BATTERY_BQ27x00 is not set
+CONFIG_HWMON=y
+# CONFIG_HWMON_VID is not set
+# CONFIG_SENSORS_ABITUGURU is not set
+# CONFIG_SENSORS_ABITUGURU3 is not set
+# CONFIG_SENSORS_AD7414 is not set
+# CONFIG_SENSORS_AD7418 is not set
+# CONFIG_SENSORS_ADM1021 is not set
+# CONFIG_SENSORS_ADM1025 is not set
+# CONFIG_SENSORS_ADM1026 is not set
+# CONFIG_SENSORS_ADM1029 is not set
+# CONFIG_SENSORS_ADM1031 is not set
+# CONFIG_SENSORS_ADM9240 is not set
+# CONFIG_SENSORS_ADT7462 is not set
+# CONFIG_SENSORS_ADT7470 is not set
+# CONFIG_SENSORS_ADT7473 is not set
+# CONFIG_SENSORS_K8TEMP is not set
+# CONFIG_SENSORS_ASB100 is not set
+# CONFIG_SENSORS_ATXP1 is not set
+# CONFIG_SENSORS_DS1621 is not set
+# CONFIG_SENSORS_I5K_AMB is not set
+# CONFIG_SENSORS_F71805F is not set
+# CONFIG_SENSORS_F71882FG is not set
+# CONFIG_SENSORS_F75375S is not set
+# CONFIG_SENSORS_FSCHER is not set
+# CONFIG_SENSORS_FSCPOS is not set
+# CONFIG_SENSORS_FSCHMD is not set
+# CONFIG_SENSORS_GL518SM is not set
+# CONFIG_SENSORS_GL520SM is not set
+# CONFIG_SENSORS_CORETEMP is not set
+# CONFIG_SENSORS_IT87 is not set
+# CONFIG_SENSORS_LM63 is not set
+# CONFIG_SENSORS_LM75 is not set
+# CONFIG_SENSORS_LM77 is not set
+# CONFIG_SENSORS_LM78 is not set
+# CONFIG_SENSORS_LM80 is not set
+# CONFIG_SENSORS_LM83 is not set
+# CONFIG_SENSORS_LM85 is not set
+# CONFIG_SENSORS_LM87 is not set
+# CONFIG_SENSORS_LM90 is not set
+# CONFIG_SENSORS_LM92 is not set
+# CONFIG_SENSORS_LM93 is not set
+# CONFIG_SENSORS_LTC4245 is not set
+# CONFIG_SENSORS_MAX1619 is not set
+# CONFIG_SENSORS_MAX6650 is not set
+# CONFIG_SENSORS_PC87360 is not set
+# CONFIG_SENSORS_PC87427 is not set
+# CONFIG_SENSORS_SIS5595 is not set
+# CONFIG_SENSORS_DME1737 is not set
+# CONFIG_SENSORS_SMSC47M1 is not set
+# CONFIG_SENSORS_SMSC47M192 is not set
+# CONFIG_SENSORS_SMSC47B397 is not set
+# CONFIG_SENSORS_ADS7828 is not set
+# CONFIG_SENSORS_THMC50 is not set
+# CONFIG_SENSORS_VIA686A is not set
+# CONFIG_SENSORS_VT1211 is not set
+# CONFIG_SENSORS_VT8231 is not set
+# CONFIG_SENSORS_W83781D is not set
+# CONFIG_SENSORS_W83791D is not set
+# CONFIG_SENSORS_W83792D is not set
+# CONFIG_SENSORS_W83793 is not set
+# CONFIG_SENSORS_W83L785TS is not set
+# CONFIG_SENSORS_W83L786NG is not set
+# CONFIG_SENSORS_W83627HF is not set
+# CONFIG_SENSORS_W83627EHF is not set
+# CONFIG_SENSORS_HDAPS is not set
+# CONFIG_SENSORS_LIS3LV02D is not set
+# CONFIG_SENSORS_APPLESMC is not set
+# CONFIG_HWMON_DEBUG_CHIP is not set
+CONFIG_THERMAL=y
+CONFIG_THERMAL_HWMON=y
+# CONFIG_WATCHDOG is not set
+CONFIG_SSB_POSSIBLE=y
+
+#
+# Sonics Silicon Backplane
+#
+CONFIG_SSB=m
+CONFIG_SSB_SPROM=y
+CONFIG_SSB_PCIHOST_POSSIBLE=y
+CONFIG_SSB_PCIHOST=y
+CONFIG_SSB_B43_PCI_BRIDGE=y
+# CONFIG_SSB_DEBUG is not set
+CONFIG_SSB_DRIVER_PCICORE_POSSIBLE=y
+CONFIG_SSB_DRIVER_PCICORE=y
+
+#
+# Multifunction device drivers
+#
+# CONFIG_MFD_CORE is not set
+# CONFIG_MFD_SM501 is not set
+# CONFIG_HTC_PASIC3 is not set
+# CONFIG_TWL4030_CORE is not set
+# CONFIG_MFD_TMIO is not set
+# CONFIG_PMIC_DA903X is not set
+# CONFIG_MFD_WM8400 is not set
+# CONFIG_MFD_WM8350_I2C is not set
+# CONFIG_REGULATOR is not set
+
+#
+# Multimedia devices
+#
+CONFIG_MEDIA_SUPPORT=y
+
+#
+# Multimedia core support
+#
+CONFIG_VIDEO_DEV=y
+CONFIG_VIDEO_V4L2_COMMON=y
+# CONFIG_VIDEO_ALLOW_V4L1 is not set
+CONFIG_VIDEO_V4L1_COMPAT=y
+CONFIG_DVB_CORE=m
+CONFIG_VIDEO_MEDIA=m
+
+#
+# Multimedia drivers
+#
+CONFIG_MEDIA_ATTACH=y
+CONFIG_MEDIA_TUNER=m
+# CONFIG_MEDIA_TUNER_CUSTOMIZE is not set
+CONFIG_MEDIA_TUNER_SIMPLE=m
+CONFIG_MEDIA_TUNER_TDA8290=m
+CONFIG_MEDIA_TUNER_TDA9887=m
+CONFIG_MEDIA_TUNER_TEA5761=m
+CONFIG_MEDIA_TUNER_TEA5767=m
+CONFIG_MEDIA_TUNER_MT20XX=m
+CONFIG_MEDIA_TUNER_XC2028=m
+CONFIG_MEDIA_TUNER_XC5000=m
+CONFIG_VIDEO_V4L2=y
+CONFIG_VIDEOBUF_GEN=m
+CONFIG_VIDEOBUF_VMALLOC=m
+CONFIG_VIDEO_CAPTURE_DRIVERS=y
+# CONFIG_VIDEO_ADV_DEBUG is not set
+# CONFIG_VIDEO_FIXED_MINOR_RANGES is not set
+CONFIG_VIDEO_HELPER_CHIPS_AUTO=y
+# CONFIG_VIDEO_VIVI is not set
+# CONFIG_VIDEO_BT848 is not set
+# CONFIG_VIDEO_SAA5246A is not set
+# CONFIG_VIDEO_SAA5249 is not set
+# CONFIG_VIDEO_SAA7134 is not set
+# CONFIG_VIDEO_HEXIUM_ORION is not set
+# CONFIG_VIDEO_HEXIUM_GEMINI is not set
+# CONFIG_VIDEO_CX88 is not set
+# CONFIG_VIDEO_CX23885 is not set
+# CONFIG_VIDEO_AU0828 is not set
+# CONFIG_VIDEO_IVTV is not set
+# CONFIG_VIDEO_CX18 is not set
+# CONFIG_VIDEO_CAFE_CCIC is not set
+# CONFIG_SOC_CAMERA is not set
+CONFIG_V4L_USB_DRIVERS=y
+CONFIG_USB_VIDEO_CLASS=m
+CONFIG_USB_VIDEO_CLASS_INPUT_EVDEV=y
+CONFIG_USB_GSPCA=m
+# CONFIG_USB_M5602 is not set
+# CONFIG_USB_STV06XX is not set
+# CONFIG_USB_GSPCA_CONEX is not set
+# CONFIG_USB_GSPCA_ETOMS is not set
+# CONFIG_USB_GSPCA_FINEPIX is not set
+# CONFIG_USB_GSPCA_MARS is not set
+# CONFIG_USB_GSPCA_OV519 is not set
+# CONFIG_USB_GSPCA_OV534 is not set
+# CONFIG_USB_GSPCA_PAC207 is not set
+# CONFIG_USB_GSPCA_PAC7311 is not set
+# CONFIG_USB_GSPCA_SONIXB is not set
+# CONFIG_USB_GSPCA_SONIXJ is not set
+# CONFIG_USB_GSPCA_SPCA500 is not set
+# CONFIG_USB_GSPCA_SPCA501 is not set
+# CONFIG_USB_GSPCA_SPCA505 is not set
+# CONFIG_USB_GSPCA_SPCA506 is not set
+# CONFIG_USB_GSPCA_SPCA508 is not set
+# CONFIG_USB_GSPCA_SPCA561 is not set
+# CONFIG_USB_GSPCA_STK014 is not set
+# CONFIG_USB_GSPCA_SUNPLUS is not set
+# CONFIG_USB_GSPCA_T613 is not set
+# CONFIG_USB_GSPCA_TV8532 is not set
+# CONFIG_USB_GSPCA_VC032X is not set
+# CONFIG_USB_GSPCA_ZC3XX is not set
+# CONFIG_VIDEO_PVRUSB2 is not set
+# CONFIG_VIDEO_EM28XX is not set
+# CONFIG_VIDEO_USBVISION is not set
+CONFIG_USB_ET61X251=m
+CONFIG_USB_SN9C102=m
+CONFIG_USB_ZC0301=m
+CONFIG_USB_ZR364XX=m
+CONFIG_USB_STKWEBCAM=m
+CONFIG_USB_S2255=m
+# CONFIG_RADIO_ADAPTERS is not set
+# CONFIG_DVB_DYNAMIC_MINORS is not set
+# CONFIG_DVB_CAPTURE_DRIVERS is not set
+# CONFIG_DAB is not set
+
+#
+# Graphics support
+#
+CONFIG_AGP=y
+# CONFIG_AGP_ALI is not set
+# CONFIG_AGP_ATI is not set
+# CONFIG_AGP_AMD is not set
+# CONFIG_AGP_AMD64 is not set
+CONFIG_AGP_INTEL=y
+# CONFIG_AGP_NVIDIA is not set
+# CONFIG_AGP_SIS is not set
+# CONFIG_AGP_SWORKS is not set
+# CONFIG_AGP_VIA is not set
+# CONFIG_AGP_EFFICEON is not set
+CONFIG_DRM=y
+# CONFIG_DRM_TDFX is not set
+# CONFIG_DRM_R128 is not set
+# CONFIG_DRM_RADEON is not set
+CONFIG_DRM_I810=y
+# CONFIG_DRM_I830 is not set
+CONFIG_DRM_I915=y
+CONFIG_DRM_I915_KMS=y
+# CONFIG_DRM_MGA is not set
+# CONFIG_DRM_SIS is not set
+# CONFIG_DRM_VIA is not set
+# CONFIG_DRM_SAVAGE is not set
+# CONFIG_VGASTATE is not set
+# CONFIG_DRM_PSB is not set
+CONFIG_VIDEO_OUTPUT_CONTROL=y
+CONFIG_FB=y
+# CONFIG_FIRMWARE_EDID is not set
+# CONFIG_FB_TRIDENT_ACCEL is not set
+# CONFIG_FB_ARK is not set
+# CONFIG_FB_PM3 is not set
+# CONFIG_FB_CARMINE is not set
+# CONFIG_FB_GEODE is not set
+# CONFIG_FB_VIRTUAL is not set
+# CONFIG_FB_METRONOME is not set
+# CONFIG_FB_MB862XX is not set
+
+
+CONFIG_BACKLIGHT_LCD_SUPPORT=y
+# CONFIG_LCD_CLASS_DEVICE is not set
+CONFIG_BACKLIGHT_CLASS_DEVICE=y
+CONFIG_BACKLIGHT_GENERIC=y
+CONFIG_SAMSUNG_BACKLIGHT=m
+# CONFIG_BACKLIGHT_CORGI is not set
+# CONFIG_BACKLIGHT_PROGEAR is not set
+# CONFIG_BACKLIGHT_MBP_NVIDIA is not set
+# CONFIG_BACKLIGHT_SAHARA is not set
+
+
+#
+# Frame buffer hardware drivers
+#
+# CONFIG_FB_TILEBLITTING is not set
+# CONFIG_FB_FOREIGN_ENDIAN is not set
+# CONFIG_FB_PM2_FIFO_DISCONNECT is not set
+# CONFIG_FB_3DFX_ACCEL is not set
+# CONFIG_FB_CIRRUS is not set
+# CONFIG_FB_PM2 is not set
+# CONFIG_FB_CYBER2000 is not set
+# CONFIG_FB_ARC is not set
+# CONFIG_FB_ASILIANT is not set
+# CONFIG_FB_IMSTT is not set
+# CONFIG_FB_VGA16 is not set
+# CONFIG_FB_VESA is not set
+# CONFIG_FB_EFI is not set
+# CONFIG_FB_N411 is not set
+# CONFIG_FB_HGA is not set
+# CONFIG_FB_S1D13XXX is not set
+# CONFIG_FB_NVIDIA is not set
+# CONFIG_FB_RIVA is not set
+CONFIG_FB_I810=m
+# CONFIG_FB_I810_GTF is not set
+# CONFIG_FB_LE80578 is not set
+# CONFIG_FB_CARILLO_RANCH is not set
+# CONFIG_FB_INTEL is not set
+# CONFIG_FB_INTEL_DEBUG is not set
+# CONFIG_FB_INTEL_I2C is not set
+# CONFIG_FB_MATROX is not set
+# CONFIG_FB_RADEON is not set
+CONFIG_FB_RADEON_I2C=y
+# CONFIG_FB_RADEON_BACKLIGHT is not set
+# CONFIG_FB_RADEON_DEBUG is not set
+# CONFIG_FB_ATY128 is not set
+# CONFIG_FB_ATY is not set
+# CONFIG_FB_S3 is not set
+# CONFIG_FB_SAVAGE is not set
+# CONFIG_FB_SIS is not set
+# CONFIG_FB_SIS_300 is not set
+# CONFIG_FB_SIS_315 is not set
+# CONFIG_FB_VIA is not set
+# CONFIG_FB_NEOMAGIC is not set
+# CONFIG_FB_KYRO is not set
+# CONFIG_FB_3DFX is not set
+# CONFIG_FB_VOODOO1 is not set
+# CONFIG_FB_VT8623 is not set
+# CONFIG_FB_CYBLA is not set
+# CONFIG_FB_TRIDENT is not set
+# CONFIG_FB_ARK is not set
+# CONFIG_FB_PM3 is not set
+# CONFIG_FB_CARMINE is not set
+# CONFIG_FB_GEODE is not set
+# CONFIG_FB_VIRTUAL is not set
+# CONFIG_FB_METRONOME is not set
+# CONFIG_FB_MB862XX is not set
+
+#
+# Display device support
+#
+# CONFIG_DISPLAY_SUPPORT is not set
+
+#
+# Console display driver support
+#
+CONFIG_VGA_CONSOLE=y
+CONFIG_VGACON_SOFT_SCROLLBACK=y
+CONFIG_VGACON_SOFT_SCROLLBACK_SIZE=64
+# CONFIG_MDA_CONSOLE is not set
+CONFIG_DUMMY_CONSOLE=y
+CONFIG_FRAMEBUFFER_CONSOLE=y
+CONFIG_FRAMEBUFFER_CONSOLE_DETECT_PRIMARY=y
+# CONFIG_FRAMEBUFFER_CONSOLE_ROTATION is not set
+CONFIG_FONTS=y
+CONFIG_FONT_8x16=y
+# CONFIG_LOGO is not set
+CONFIG_SOUND=y
+# CONFIG_SOUND_OSS_CORE is not set
+CONFIG_SND=y
+CONFIG_SND_TIMER=y
+CONFIG_SND_PCM=y
+CONFIG_SND_HWDEP=y
+CONFIG_SND_RAWMIDI=m
+CONFIG_SND_SEQUENCER=y
+CONFIG_SND_SEQ_DUMMY=y
+# CONFIG_SND_OSSEMUL is not set
+# CONFIG_SND_MIXER_OSS is not set
+# CONFIG_SND_PCM_OSS is not set
+# CONFIG_SND_SEQUENCER_OSS is not set
+# CONFIG_SND_HRTIMER is not set
+CONFIG_SND_DYNAMIC_MINORS=y
+# CONFIG_SND_SUPPORT_OLD_API is not set
+CONFIG_SND_VERBOSE_PROCFS=y
+CONFIG_SND_VERBOSE_PRINTK=y
+CONFIG_SND_DEBUG=y
+# CONFIG_SND_DEBUG_VERBOSE is not set
+CONFIG_SND_PCM_XRUN_DEBUG=y
+CONFIG_SND_VMASTER=y
+CONFIG_SND_AC97_CODEC=y
+CONFIG_SND_DRIVERS=y
+# CONFIG_SND_DUMMY is not set
+# CONFIG_SND_VIRMIDI is not set
+# CONFIG_SND_MTPAV is not set
+# CONFIG_SND_SERIAL_U16550 is not set
+# CONFIG_SND_MPU401 is not set
+CONFIG_SND_AC97_POWER_SAVE=y
+CONFIG_SND_AC97_POWER_SAVE_DEFAULT=5
+# CONFIG_SND_ISA is not set
+CONFIG_SND_PCI=y
+# CONFIG_SND_AD1889 is not set
+# CONFIG_SND_ALS300 is not set
+# CONFIG_SND_ALS4000 is not set
+# CONFIG_SND_ALI5451 is not set
+# CONFIG_SND_ATIIXP is not set
+# CONFIG_SND_ATIIXP_MODEM is not set
+# CONFIG_SND_AU8810 is not set
+# CONFIG_SND_AU8820 is not set
+# CONFIG_SND_AU8830 is not set
+# CONFIG_SND_AW2 is not set
+# CONFIG_SND_AZT3328 is not set
+# CONFIG_SND_BT87X is not set
+# CONFIG_SND_CA0106 is not set
+# CONFIG_SND_CMIPCI is not set
+# CONFIG_SND_OXYGEN is not set
+# CONFIG_SND_CS4281 is not set
+# CONFIG_SND_CS46XX is not set
+# CONFIG_SND_CS5530 is not set
+# CONFIG_SND_CS5535AUDIO is not set
+# CONFIG_SND_DARLA20 is not set
+# CONFIG_SND_GINA20 is not set
+# CONFIG_SND_LAYLA20 is not set
+# CONFIG_SND_DARLA24 is not set
+# CONFIG_SND_GINA24 is not set
+# CONFIG_SND_LAYLA24 is not set
+# CONFIG_SND_MONA is not set
+# CONFIG_SND_MIA is not set
+# CONFIG_SND_ECHO3G is not set
+# CONFIG_SND_INDIGO is not set
+# CONFIG_SND_INDIGOIO is not set
+# CONFIG_SND_INDIGODJ is not set
+# CONFIG_SND_EMU10K1 is not set
+# CONFIG_SND_EMU10K1X is not set
+# CONFIG_SND_ENS1370 is not set
+CONFIG_SND_ENS1371=m
+# CONFIG_SND_ES1938 is not set
+# CONFIG_SND_ES1968 is not set
+# CONFIG_SND_FM801 is not set
+CONFIG_SND_HDA_INTEL=y
+CONFIG_SND_HDA_HWDEP=y
+# CONFIG_SND_HDA_RECONFIG is not set
+# CONFIG_SND_HDA_INPUT_BEEP is not set
+CONFIG_SND_HDA_CODEC_REALTEK=y
+CONFIG_SND_HDA_CODEC_ANALOG=y
+CONFIG_SND_HDA_CODEC_SIGMATEL=y
+CONFIG_SND_HDA_CODEC_VIA=y
+CONFIG_SND_HDA_CODEC_ATIHDMI=y
+CONFIG_SND_HDA_CODEC_NVHDMI=y
+CONFIG_SND_HDA_CODEC_INTELHDMI=y
+CONFIG_SND_HDA_CODEC_CONEXANT=y
+CONFIG_SND_HDA_CODEC_CMEDIA=y
+CONFIG_SND_HDA_CODEC_SI3054=y
+CONFIG_SND_HDA_GENERIC=y
+CONFIG_SND_HDA_POWER_SAVE=y
+CONFIG_SND_HDA_POWER_SAVE_DEFAULT=5
+# CONFIG_SND_HDSP is not set
+# CONFIG_SND_HDSPM is not set
+# CONFIG_SND_HIFIER is not set
+# CONFIG_SND_ICE1712 is not set
+# CONFIG_SND_ICE1724 is not set
+CONFIG_SND_INTEL8X0=y
+# CONFIG_SND_INTEL8X0M is not set
+# CONFIG_SND_KORG1212 is not set
+# CONFIG_SND_MAESTRO3 is not set
+# CONFIG_SND_MIXART is not set
+# CONFIG_SND_NM256 is not set
+# CONFIG_SND_PCXHR is not set
+# CONFIG_SND_RIPTIDE is not set
+# CONFIG_SND_RME32 is not set
+# CONFIG_SND_RME96 is not set
+# CONFIG_SND_RME9652 is not set
+# CONFIG_SND_SIS7019 is not set
+# CONFIG_SND_SONICVIBES is not set
+# CONFIG_SND_TRIDENT is not set
+# CONFIG_SND_VIA82XX is not set
+# CONFIG_SND_VIA82XX_MODEM is not set
+# CONFIG_SND_VIRTUOSO is not set
+# CONFIG_SND_VX222 is not set
+# CONFIG_SND_YMFPCI is not set
+CONFIG_SND_USB=y
+CONFIG_SND_USB_AUDIO=m
+CONFIG_SND_USB_USX2Y=m
+CONFIG_SND_USB_CAIAQ=m
+CONFIG_SND_USB_CAIAQ_INPUT=y
+# CONFIG_SND_USB_US122L is not set
+# CONFIG_SND_SOC is not set
+# CONFIG_SOUND_PRIME is not set
+CONFIG_AC97_BUS=y
+CONFIG_HID_SUPPORT=y
+CONFIG_HID=y
+CONFIG_HID_DEBUG=y
+CONFIG_HIDRAW=y
+
+#
+# USB Input Devices
+#
+CONFIG_USB_HID=y
+CONFIG_HID_PID=y
+CONFIG_USB_HIDDEV=y
+
+#
+# Special HID drivers
+#
+CONFIG_HID_COMPAT=y
+CONFIG_HID_A4TECH=y
+CONFIG_HID_APPLE=y
+CONFIG_HID_BELKIN=y
+CONFIG_HID_BRIGHT=y
+CONFIG_HID_CHERRY=y
+CONFIG_HID_CHICONY=y
+CONFIG_HID_CYPRESS=y
+CONFIG_HID_DELL=y
+CONFIG_HID_EZKEY=y
+CONFIG_HID_GYRATION=y
+CONFIG_HID_LOGITECH=y
+# CONFIG_LOGITECH_FF is not set
+# CONFIG_LOGIRUMBLEPAD2_FF is not set
+CONFIG_HID_MICROSOFT=y
+CONFIG_HID_MONTEREY=y
+CONFIG_HID_PANTHERLORD=y
+# CONFIG_PANTHERLORD_FF is not set
+CONFIG_HID_PETALYNX=y
+CONFIG_HID_SAMSUNG=y
+CONFIG_HID_SONY=y
+CONFIG_HID_SUNPLUS=y
+# CONFIG_GREENASIA_FF is not set
+# CONFIG_THRUSTMASTER_FF is not set
+# CONFIG_ZEROPLUS_FF is not set
+CONFIG_USB_SUPPORT=y
+CONFIG_USB_ARCH_HAS_HCD=y
+CONFIG_USB_ARCH_HAS_OHCI=y
+CONFIG_USB_ARCH_HAS_EHCI=y
+CONFIG_USB=y
+# CONFIG_USB_DEBUG is not set
+CONFIG_USB_ANNOUNCE_NEW_DEVICES=y
+
+#
+# Miscellaneous USB options
+#
+CONFIG_USB_DEVICEFS=y
+# CONFIG_USB_DEVICE_CLASS is not set
+# CONFIG_USB_DYNAMIC_MINORS is not set
+CONFIG_USB_SUSPEND=y
+# CONFIG_USB_OTG is not set
+CONFIG_USB_MON=y
+CONFIG_USB_WUSB=m
+# CONFIG_USB_WUSB_CBAF is not set
+
+#
+# USB Host Controller Drivers
+#
+# CONFIG_USB_C67X00_HCD is not set
+CONFIG_USB_EHCI_HCD=y
+CONFIG_USB_EHCI_ROOT_HUB_TT=y
+CONFIG_USB_EHCI_TT_NEWSCHED=y
+# CONFIG_USB_OXU210HP_HCD is not set
+CONFIG_USB_ISP116X_HCD=m
+# CONFIG_USB_ISP1760_HCD is not set
+CONFIG_USB_OHCI_HCD=y
+# CONFIG_USB_OHCI_BIG_ENDIAN_DESC is not set
+# CONFIG_USB_OHCI_BIG_ENDIAN_MMIO is not set
+CONFIG_USB_OHCI_LITTLE_ENDIAN=y
+CONFIG_USB_UHCI_HCD=y
+CONFIG_USB_U132_HCD=m
+CONFIG_USB_SL811_HCD=m
+# CONFIG_USB_R8A66597_HCD is not set
+CONFIG_USB_WHCI_HCD=m
+CONFIG_USB_HWA_HCD=m
+# CONFIG_USB_GADGET_MUSB_HDRC is not set
+
+#
+# USB Device Class drivers
+#
+CONFIG_USB_ACM=m
+CONFIG_USB_PRINTER=m
+CONFIG_USB_WDM=m
+# CONFIG_USB_TMC is not set
+
+#
+# NOTE: USB_STORAGE depends on SCSI but BLK_DEV_SD may also be needed;
+#
+
+#
+# see USB_STORAGE Help for more information
+#
+CONFIG_USB_STORAGE=y
+# CONFIG_USB_STORAGE_DEBUG is not set
+CONFIG_USB_STORAGE_DATAFAB=y
+CONFIG_USB_STORAGE_FREECOM=y
+CONFIG_USB_STORAGE_ISD200=y
+CONFIG_USB_STORAGE_DPCM=y
+CONFIG_USB_STORAGE_USBAT=y
+CONFIG_USB_STORAGE_SDDR09=y
+CONFIG_USB_STORAGE_SDDR55=y
+CONFIG_USB_STORAGE_JUMPSHOT=y
+CONFIG_USB_STORAGE_ALAUDA=y
+# CONFIG_USB_STORAGE_ONETOUCH is not set
+CONFIG_USB_STORAGE_KARMA=y
+# CONFIG_USB_STORAGE_CYPRESS_ATACB is not set
+CONFIG_USB_LIBUSUAL=y
+
+#
+# USB Imaging devices
+#
+CONFIG_USB_MDC800=m
+CONFIG_USB_MICROTEK=m
+
+#
+# USB port drivers
+#
+CONFIG_USB_SERIAL=m
+CONFIG_USB_EZUSB=y
+CONFIG_USB_SERIAL_GENERIC=y
+CONFIG_USB_SERIAL_AIRCABLE=m
+CONFIG_USB_SERIAL_ARK3116=m
+CONFIG_USB_SERIAL_BELKIN=m
+CONFIG_USB_SERIAL_CH341=m
+CONFIG_USB_SERIAL_WHITEHEAT=m
+CONFIG_USB_SERIAL_DIGI_ACCELEPORT=m
+CONFIG_USB_SERIAL_CP2101=m
+CONFIG_USB_SERIAL_CYPRESS_M8=m
+CONFIG_USB_SERIAL_EMPEG=m
+CONFIG_USB_SERIAL_FTDI_SIO=m
+CONFIG_USB_SERIAL_FUNSOFT=m
+CONFIG_USB_SERIAL_VISOR=m
+CONFIG_USB_SERIAL_IPAQ=m
+CONFIG_USB_SERIAL_IR=m
+CONFIG_USB_SERIAL_EDGEPORT=m
+CONFIG_USB_SERIAL_EDGEPORT_TI=m
+CONFIG_USB_SERIAL_GARMIN=m
+CONFIG_USB_SERIAL_IPW=m
+CONFIG_USB_SERIAL_IUU=m
+CONFIG_USB_SERIAL_KEYSPAN_PDA=m
+CONFIG_USB_SERIAL_KEYSPAN=m
+CONFIG_USB_SERIAL_KEYSPAN_MPR=y
+CONFIG_USB_SERIAL_KEYSPAN_USA28=y
+CONFIG_USB_SERIAL_KEYSPAN_USA28X=y
+CONFIG_USB_SERIAL_KEYSPAN_USA28XA=y
+CONFIG_USB_SERIAL_KEYSPAN_USA28XB=y
+CONFIG_USB_SERIAL_KEYSPAN_USA19=y
+CONFIG_USB_SERIAL_KEYSPAN_USA18X=y
+CONFIG_USB_SERIAL_KEYSPAN_USA19W=y
+CONFIG_USB_SERIAL_KEYSPAN_USA19QW=y
+CONFIG_USB_SERIAL_KEYSPAN_USA19QI=y
+CONFIG_USB_SERIAL_KEYSPAN_USA49W=y
+CONFIG_USB_SERIAL_KEYSPAN_USA49WLC=y
+CONFIG_USB_SERIAL_KLSI=m
+CONFIG_USB_SERIAL_KOBIL_SCT=m
+CONFIG_USB_SERIAL_MCT_U232=m
+CONFIG_USB_SERIAL_MOS7720=m
+CONFIG_USB_SERIAL_MOS7840=m
+# CONFIG_USB_SERIAL_MOTOROLA is not set
+CONFIG_USB_SERIAL_NAVMAN=m
+CONFIG_USB_SERIAL_PL2303=m
+CONFIG_USB_SERIAL_OTI6858=m
+# CONFIG_USB_SERIAL_SPCP8X5 is not set
+CONFIG_USB_SERIAL_HP4X=m
+CONFIG_USB_SERIAL_SAFE=m
+CONFIG_USB_SERIAL_SAFE_PADDED=y
+# CONFIG_USB_SERIAL_SIEMENS_MPI is not set
+CONFIG_USB_SERIAL_SIERRAWIRELESS=m
+CONFIG_USB_SERIAL_TI=m
+CONFIG_USB_SERIAL_CYBERJACK=m
+CONFIG_USB_SERIAL_XIRCOM=m
+CONFIG_USB_SERIAL_OPTION=m
+CONFIG_USB_SERIAL_OMNINET=m
+# CONFIG_USB_SERIAL_OPTICON is not set
+CONFIG_USB_SERIAL_DEBUG=m
+
+#
+# USB Miscellaneous drivers
+#
+CONFIG_USB_EMI62=m
+CONFIG_USB_EMI26=m
+CONFIG_USB_ADUTUX=m
+# CONFIG_USB_SEVSEG is not set
+# CONFIG_USB_RIO500 is not set
+CONFIG_USB_LEGOTOWER=m
+CONFIG_USB_LCD=m
+CONFIG_USB_BERRY_CHARGE=m
+CONFIG_USB_LED=m
+# CONFIG_USB_CYPRESS_CY7C63 is not set
+# CONFIG_USB_CYTHERM is not set
+CONFIG_USB_PHIDGET=m
+CONFIG_USB_PHIDGETKIT=m
+CONFIG_USB_PHIDGETMOTORCONTROL=m
+CONFIG_USB_PHIDGETSERVO=m
+CONFIG_USB_IDMOUSE=m
+CONFIG_USB_FTDI_ELAN=m
+CONFIG_USB_APPLEDISPLAY=m
+CONFIG_USB_SISUSBVGA=m
+CONFIG_USB_SISUSBVGA_CON=y
+CONFIG_USB_LD=m
+CONFIG_USB_TRANCEVIBRATOR=m
+CONFIG_USB_IOWARRIOR=m
+# CONFIG_USB_TEST is not set
+# CONFIG_USB_ISIGHTFW is not set
+# CONFIG_USB_VST is not set
+# CONFIG_USB_GADGET is not set
+# CONFIG_USB_GADGET_DEBUG is not set
+# CONFIG_USB_GADGET_DEBUG_FILES is not set
+# CONFIG_USB_GADGET_DEBUG_FS is not set
+# CONFIG_USB_GADGET_VBUS_DRAW is not set
+# CONFIG_USB_GADGET_SELECTED is not set
+# CONFIG_USB_GADGET_AT91 is not set
+# CONFIG_USB_GADGET_ATMEL_USBA is not set
+# CONFIG_USB_GADGET_FSL_USB2 is not set
+# CONFIG_USB_GADGET_LH7A40X is not set
+# CONFIG_USB_GADGET_OMAP is not set
+# CONFIG_USB_GADGET_PXA25X is not set
+# CONFIG_USB_GADGET_PXA27X is not set
+# CONFIG_USB_GADGET_S3C2410 is not set
+# CONFIG_USB_GADGET_IMX is not set
+# CONFIG_USB_GADGET_M66592 is not set
+# CONFIG_USB_GADGET_AMD5536UDC is not set
+# CONFIG_USB_GADGET_FSL_QE is not set
+# CONFIG_USB_GADGET_CI13XXX is not set
+# CONFIG_USB_GADGET_NET2280 is not set
+# CONFIG_USB_GADGET_GOKU is not set
+# CONFIG_USB_GADGET_LANGWELL is not set
+# CONFIG_USB_LANGWELL is not set
+# CONFIG_USB_GADGET_DUMMY_HCD is not set
+# CONFIG_USB_GADGET_DUALSPEED is not set
+# CONFIG_USB_ZERO is not set
+# CONFIG_USB_ETH is not set
+# CONFIG_USB_ETH_RNDIS is not set
+# CONFIG_USB_GADGETFS is not set
+# CONFIG_USB_FILE_STORAGE is not set
+# CONFIG_USB_FILE_STORAGE_TEST is not set
+# CONFIG_USB_G_SERIAL is not set
+# CONFIG_USB_MIDI_GADGET is not set
+# CONFIG_USB_G_PRINTER is not set
+# CONFIG_USB_CDC_COMPOSITE is not set
+# CONFIG_USB_STILL_IMAGE is not set
+
+CONFIG_UWB=m
+CONFIG_UWB_HWA=m
+CONFIG_UWB_WHCI=m
+# CONFIG_UWB_WLP is not set
+# CONFIG_UWB_I1480U is not set
+CONFIG_MMC=y
+# CONFIG_MMC_DEBUG is not set
+# CONFIG_MMC_UNSAFE_RESUME is not set
+# CONFIG_SDIO_SUSPEND is not set
+# CONFIG_MMC_SDHCI_MRST_SDIO1 is not set
+
+#
+# MMC/SD/SDIO Card Drivers
+#
+CONFIG_MMC_BLOCK=y
+CONFIG_MMC_BLOCK_BOUNCE=y
+CONFIG_SDIO_UART=m
+# CONFIG_MMC_TEST is not set
+
+#
+# MMC/SD/SDIO Host Controller Drivers
+#
+CONFIG_MMC_SDHCI=y
+CONFIG_MMC_SDHCI_PCI=y
+# CONFIG_MMC_RICOH_MMC is not set
+CONFIG_MMC_WBSD=m
+CONFIG_MMC_TIFM_SD=m
+# CONFIG_MEMSTICK is not set
+CONFIG_NEW_LEDS=y
+CONFIG_LEDS_CLASS=y
+# CONFIG_MMC_CEATA_WR is not set
+# CONFIG_MMC_SPI is not set
+
+#
+# LED drivers
+#
+# CONFIG_LEDS_ALIX2 is not set
+# CONFIG_LEDS_PCA9532 is not set
+# CONFIG_LEDS_HP_DISK is not set
+# CONFIG_LEDS_CLEVO_MAIL is not set
+# CONFIG_LEDS_PCA955X is not set
+
+#
+# LED Triggers
+#
+CONFIG_LEDS_TRIGGERS=y
+# CONFIG_LEDS_TRIGGER_TIMER is not set
+# CONFIG_LEDS_TRIGGER_HEARTBEAT is not set
+# CONFIG_LEDS_TRIGGER_BACKLIGHT is not set
+# CONFIG_LEDS_TRIGGER_DEFAULT_ON is not set
+# CONFIG_ACCESSIBILITY is not set
+# CONFIG_INFINIBAND is not set
+# CONFIG_EDAC is not set
+CONFIG_RTC_LIB=y
+CONFIG_RTC_CLASS=y
+# CONFIG_RTC_HCTOSYS is not set
+# CONFIG_RTC_DEBUG is not set
+
+#
+# RTC interfaces
+#
+CONFIG_RTC_INTF_SYSFS=y
+CONFIG_RTC_INTF_PROC=y
+CONFIG_RTC_INTF_DEV=y
+# CONFIG_RTC_INTF_DEV_UIE_EMUL is not set
+# CONFIG_RTC_DRV_TEST is not set
+
+#
+# I2C RTC drivers
+#
+# CONFIG_RTC_DRV_DS1307 is not set
+# CONFIG_RTC_DRV_DS1374 is not set
+# CONFIG_RTC_DRV_DS1672 is not set
+# CONFIG_RTC_DRV_MAX6900 is not set
+# CONFIG_RTC_DRV_RS5C372 is not set
+# CONFIG_RTC_DRV_ISL1208 is not set
+# CONFIG_RTC_DRV_X1205 is not set
+# CONFIG_RTC_DRV_PCF8563 is not set
+# CONFIG_RTC_DRV_PCF8583 is not set
+# CONFIG_RTC_DRV_M41T80 is not set
+# CONFIG_RTC_DRV_S35390A is not set
+# CONFIG_RTC_DRV_FM3130 is not set
+# CONFIG_RTC_DRV_RX8581 is not set
+
+#
+# SPI RTC drivers
+#
+
+#
+# Platform RTC drivers
+#
+CONFIG_RTC_DRV_CMOS=y
+# CONFIG_RTC_DRV_DS1286 is not set
+# CONFIG_RTC_DRV_DS1511 is not set
+# CONFIG_RTC_DRV_DS1553 is not set
+# CONFIG_RTC_DRV_DS1742 is not set
+# CONFIG_RTC_DRV_STK17TA8 is not set
+# CONFIG_RTC_DRV_M48T86 is not set
+# CONFIG_RTC_DRV_M48T35 is not set
+# CONFIG_RTC_DRV_M48T59 is not set
+# CONFIG_RTC_DRV_BQ4802 is not set
+# CONFIG_RTC_DRV_V3020 is not set
+
+#
+# on-CPU RTC drivers
+#
+# CONFIG_DMADEVICES is not set
+# CONFIG_UIO is not set
+CONFIG_STAGING=y
+# CONFIG_STAGING_EXCLUDE_BUILD is not set
+# CONFIG_ET131X is not set
+# CONFIG_SLICOSS is not set
+# CONFIG_SXG is not set
+# CONFIG_ME4000 is not set
+# CONFIG_MEILHAUS is not set
+# CONFIG_VIDEO_GO7007 is not set
+CONFIG_USB_IP_COMMON=m
+CONFIG_USB_IP_VHCI_HCD=m
+CONFIG_USB_IP_HOST=m
+# CONFIG_W35UND is not set
+CONFIG_PRISM2_USB=m
+# CONFIG_ECHO is not set
+CONFIG_RT2860=m
+CONFIG_RT2870=m
+# CONFIG_BENET is not set
+# CONFIG_COMEDI is not set
+# CONFIG_ASUS_OLED is not set
+# CONFIG_USB_ATMEL is not set
+# CONFIG_AGNX is not set
+# CONFIG_OTUS is not set
+# CONFIG_ALTERA_PCIE_CHDMA is not set
+CONFIG_RTL8187SE=m
+# CONFIG_INPUT_MIMIO is not set
+# CONFIG_TRANZPORT is not set
+# CONFIG_EPL is not set
+
+#
+# Android
+#
+# CONFIG_ANDROID is not set
+# CONFIG_ANDROID_BINDER_IPC is not set
+# CONFIG_ANDROID_LOGGER is not set
+# CONFIG_ANDROID_RAM_CONSOLE is not set
+# CONFIG_ANDROID_LOW_MEMORY_KILLER is not set
+CONFIG_X86_PLATFORM_DEVICES=y
+
+#
+# Firmware Drivers
+#
+# CONFIG_EDD is not set
+CONFIG_FIRMWARE_MEMMAP=y
+CONFIG_EFI_VARS=m
+# CONFIG_DELL_RBU is not set
+# CONFIG_DCDBAS is not set
+CONFIG_DMIID=y
+# CONFIG_ISCSI_IBFT_FIND is not set
+
+#
+# File systems
+#
+CONFIG_EXT2_FS=y
+# CONFIG_EXT2_FS_XATTR is not set
+# CONFIG_EXT2_FS_XIP is not set
+CONFIG_EXT3_FS=y
+CONFIG_EXT3_FS_XATTR=y
+CONFIG_EXT3_FS_POSIX_ACL=y
+CONFIG_EXT3_FS_SECURITY=y
+# CONFIG_EXT4_FS is not set
+CONFIG_JBD=y
+# CONFIG_JBD_DEBUG is not set
+CONFIG_FS_MBCACHE=y
+# CONFIG_REISERFS_FS is not set
+# CONFIG_JFS_FS is not set
+CONFIG_FS_POSIX_ACL=y
+CONFIG_FILE_LOCKING=y
+# CONFIG_XFS_FS is not set
+# CONFIG_GFS2_FS is not set
+# CONFIG_OCFS2_FS is not set
+CONFIG_BTRFS_FS=y
+CONFIG_BTRFS_FS_POSIX_ACL=y
+CONFIG_DNOTIFY=y
+CONFIG_INOTIFY=y
+CONFIG_INOTIFY_USER=y
+# CONFIG_QUOTA is not set
+# CONFIG_AUTOFS_FS is not set
+# CONFIG_AUTOFS4_FS is not set
+CONFIG_FUSE_FS=m
+CONFIG_GENERIC_ACL=y
+
+#
+# CD-ROM/DVD Filesystems
+#
+CONFIG_ISO9660_FS=y
+CONFIG_JOLIET=y
+CONFIG_ZISOFS=y
+CONFIG_UDF_FS=m
+CONFIG_UDF_NLS=y
+
+#
+# DOS/FAT/NT Filesystems
+#
+CONFIG_FAT_FS=y
+CONFIG_MSDOS_FS=y
+CONFIG_VFAT_FS=y
+CONFIG_FAT_DEFAULT_CODEPAGE=437
+CONFIG_FAT_DEFAULT_IOCHARSET="ascii"
+# CONFIG_NTFS_FS is not set
+
+#
+# Pseudo filesystems
+#
+CONFIG_PROC_FS=y
+# CONFIG_PROC_KCORE is not set
+CONFIG_PROC_SYSCTL=y
+CONFIG_PROC_PAGE_MONITOR=y
+CONFIG_SYSFS=y
+CONFIG_TMPFS=y
+CONFIG_TMPFS_POSIX_ACL=y
+# CONFIG_HUGETLBFS is not set
+# CONFIG_HUGETLB_PAGE is not set
+CONFIG_CONFIGFS_FS=m
+
+#
+# Miscellaneous filesystems
+#
+CONFIG_MISC_FILESYSTEMS=y
+# CONFIG_ADFS_FS is not set
+# CONFIG_AFFS_FS is not set
+# CONFIG_HFS_FS is not set
+# CONFIG_HFSPLUS_FS is not set
+# CONFIG_BEFS_FS is not set
+# CONFIG_BFS_FS is not set
+# CONFIG_EFS_FS is not set
+# CONFIG_CRAMFS is not set
+CONFIG_SQUASHFS=y
+# CONFIG_SQUASHFS_EMBEDDED is not set
+CONFIG_SQUASHFS_FRAGMENT_CACHE_SIZE=3
+# CONFIG_VXFS_FS is not set
+# CONFIG_MINIX_FS is not set
+# CONFIG_OMFS_FS is not set
+# CONFIG_HPFS_FS is not set
+# CONFIG_QNX4FS_FS is not set
+# CONFIG_ROMFS_FS is not set
+# CONFIG_SYSV_FS is not set
+# CONFIG_UFS_FS is not set
+CONFIG_NETWORK_FILESYSTEMS=y
+# CONFIG_NFS_FS is not set
+# CONFIG_NFSD is not set
+# CONFIG_SMB_FS is not set
+CONFIG_CIFS=m
+# CONFIG_CIFS_STATS is not set
+CONFIG_CIFS_WEAK_PW_HASH=y
+# CONFIG_CIFS_XATTR is not set
+# CONFIG_CIFS_DEBUG2 is not set
+# CONFIG_CIFS_EXPERIMENTAL is not set
+# CONFIG_NCP_FS is not set
+# CONFIG_CODA_FS is not set
+# CONFIG_AFS_FS is not set
+
+#
+# Partition Types
+#
+CONFIG_PARTITION_ADVANCED=y
+# CONFIG_ACORN_PARTITION is not set
+# CONFIG_OSF_PARTITION is not set
+# CONFIG_AMIGA_PARTITION is not set
+# CONFIG_ATARI_PARTITION is not set
+# CONFIG_MAC_PARTITION is not set
+CONFIG_MSDOS_PARTITION=y
+CONFIG_BSD_DISKLABEL=y
+# CONFIG_MINIX_SUBPARTITION is not set
+# CONFIG_SOLARIS_X86_PARTITION is not set
+# CONFIG_UNIXWARE_DISKLABEL is not set
+CONFIG_LDM_PARTITION=y
+# CONFIG_LDM_DEBUG is not set
+# CONFIG_SGI_PARTITION is not set
+# CONFIG_ULTRIX_PARTITION is not set
+# CONFIG_SUN_PARTITION is not set
+# CONFIG_KARMA_PARTITION is not set
+CONFIG_EFI_PARTITION=y
+# CONFIG_SYSV68_PARTITION is not set
+CONFIG_NLS=y
+CONFIG_NLS_DEFAULT="utf8"
+CONFIG_NLS_CODEPAGE_437=y
+CONFIG_NLS_CODEPAGE_737=m
+CONFIG_NLS_CODEPAGE_775=m
+CONFIG_NLS_CODEPAGE_850=m
+CONFIG_NLS_CODEPAGE_852=m
+CONFIG_NLS_CODEPAGE_855=m
+CONFIG_NLS_CODEPAGE_857=m
+CONFIG_NLS_CODEPAGE_860=m
+CONFIG_NLS_CODEPAGE_861=m
+CONFIG_NLS_CODEPAGE_862=m
+CONFIG_NLS_CODEPAGE_863=m
+CONFIG_NLS_CODEPAGE_864=m
+CONFIG_NLS_CODEPAGE_865=m
+CONFIG_NLS_CODEPAGE_866=m
+CONFIG_NLS_CODEPAGE_869=m
+CONFIG_NLS_CODEPAGE_936=m
+CONFIG_NLS_CODEPAGE_950=m
+CONFIG_NLS_CODEPAGE_932=m
+CONFIG_NLS_CODEPAGE_949=m
+CONFIG_NLS_CODEPAGE_874=m
+CONFIG_NLS_ISO8859_8=m
+CONFIG_NLS_CODEPAGE_1250=m
+CONFIG_NLS_CODEPAGE_1251=m
+CONFIG_NLS_ASCII=y
+CONFIG_NLS_ISO8859_1=m
+CONFIG_NLS_ISO8859_2=m
+CONFIG_NLS_ISO8859_3=m
+CONFIG_NLS_ISO8859_4=m
+CONFIG_NLS_ISO8859_5=m
+CONFIG_NLS_ISO8859_6=m
+CONFIG_NLS_ISO8859_7=m
+CONFIG_NLS_ISO8859_9=m
+CONFIG_NLS_ISO8859_13=m
+CONFIG_NLS_ISO8859_14=m
+CONFIG_NLS_ISO8859_15=m
+CONFIG_NLS_KOI8_R=m
+CONFIG_NLS_KOI8_U=m
+CONFIG_NLS_UTF8=m
+# CONFIG_DLM is not set
+
+#
+# Kernel hacking
+#
+CONFIG_TRACE_IRQFLAGS_SUPPORT=y
+CONFIG_PRINTK_TIME=y
+# CONFIG_ENABLE_WARN_DEPRECATED is not set
+CONFIG_ENABLE_MUST_CHECK=y
+CONFIG_FRAME_WARN=1024
+CONFIG_MAGIC_SYSRQ=y
+# CONFIG_UNUSED_SYMBOLS is not set
+CONFIG_DEBUG_FS=y
+# CONFIG_HEADERS_CHECK is not set
+CONFIG_DEBUG_KERNEL=y
+CONFIG_DEBUG_SHIRQ=y
+CONFIG_DETECT_SOFTLOCKUP=y
+# CONFIG_BOOTPARAM_SOFTLOCKUP_PANIC is not set
+CONFIG_BOOTPARAM_SOFTLOCKUP_PANIC_VALUE=0
+# CONFIG_SCHED_DEBUG is not set
+CONFIG_SCHEDSTATS=y
+CONFIG_TIMER_STATS=y
+# CONFIG_DEBUG_OBJECTS is not set
+# CONFIG_DEBUG_SLAB is not set
+# CONFIG_DEBUG_RT_MUTEXES is not set
+# CONFIG_RT_MUTEX_TESTER is not set
+CONFIG_DEBUG_SPINLOCK=y
+# CONFIG_DEBUG_MUTEXES is not set
+# CONFIG_DEBUG_LOCK_ALLOC is not set
+# CONFIG_PROVE_LOCKING is not set
+# CONFIG_DEBUG_LOCKDEP is not set
+# CONFIG_LOCK_STAT is not set
+CONFIG_DEBUG_SPINLOCK_SLEEP=y
+# CONFIG_DEBUG_LOCKING_API_SELFTESTS is not set
+CONFIG_STACKTRACE=y
+# CONFIG_DEBUG_KOBJECT is not set
+CONFIG_DEBUG_HIGHMEM=y
+CONFIG_DEBUG_BUGVERBOSE=y
+CONFIG_DEBUG_INFO=y
+# CONFIG_DEBUG_VM is not set
+# CONFIG_DEBUG_VIRTUAL is not set
+# CONFIG_DEBUG_WRITECOUNT is not set
+# CONFIG_DEBUG_MEMORY_INIT it not set
+CONFIG_DEBUG_LIST=y
+# CONFIG_DEBUG_SG is not set
+CONFIG_DEBUG_NOTIFIERS=y
+CONFIG_FRAME_POINTER=y
+CONFIG_BOOT_PRINTK_DELAY=y
+# CONFIG_RCU_TORTURE_TEST is not set
+# CONFIG_RCU_CPU_STALL_DETECTOR is not set
+# CONFIG_BACKTRACE_SELF_TEST is not set
+# CONFIG_DEBUG_BLOCK_EXT_DEVT is not set
+# CONFIG_FAULT_INJECTION is not set
+CONFIG_LATENCYTOP=y
+CONFIG_SYSCTL_SYSCALL_CHECK=y
+CONFIG_HAVE_FUNCTION_TRACER=y
+CONFIG_HAVE_DYNAMIC_FTRACE=y
+CONFIG_HAVE_FTRACE_MCOUNT_RECORD=y
+
+# CONFIG_X86_VISWS is not set
+# CONFIG_FTRACE_STARTUP_TEST is not set
+#
+# Tracers
+#
+# CONFIG_FUNCTION_TRACER is not set
+# CONFIG_IRQSOFF_TRACER is not set
+CONFIG_SYSPROF_TRACER=y
+CONFIG_SCHED_TRACER=y
+CONFIG_CONTEXT_SWITCH_TRACER=y
+CONFIG_OPEN_CLOSE_TRACER=y
+# CONFIG_BOOT_TRACER is not set
+CONFIG_POWER_TRACER=y
+# CONFIG_TRACE_BRANCH_PROFILING is not set
+# CONFIG_STACK_TRACER is not set
+# CONFIG_PROVIDE_OHCI1394_DMA_INIT is not set
+# CONFIG_DYNAMIC_PRINTK_DEBUG is not set
+# CONFIG_SAMPLES is not set
+CONFIG_HAVE_ARCH_KGDB=y
+# CONFIG_KGDB is not set
+CONFIG_STRICT_DEVMEM=y
+CONFIG_X86_VERBOSE_BOOTUP=y
+CONFIG_EARLY_PRINTK=y
+# CONFIG_EARLY_PRINTK_DBGP is not set
+CONFIG_DEBUG_STACKOVERFLOW=y
+# CONFIG_DEBUG_STACK_USAGE is not set
+# CONFIG_DEBUG_PAGEALLOC is not set
+# CONFIG_DEBUG_PER_CPU_MAPS is not set
+# CONFIG_X86_PTDUMP is not set
+CONFIG_DEBUG_RODATA=y
+# CONFIG_DEBUG_RODATA_TEST is not set
+# CONFIG_DEBUG_NX_TEST is not set
+# CONFIG_4KSTACKS is not set
+CONFIG_DOUBLEFAULT=y
+# CONFIG_MMIOTRACE is not set
+CONFIG_IO_DELAY_TYPE_0X80=0
+CONFIG_IO_DELAY_TYPE_0XED=1
+CONFIG_IO_DELAY_TYPE_UDELAY=2
+CONFIG_IO_DELAY_TYPE_NONE=3
+CONFIG_IO_DELAY_0X80=y
+# CONFIG_IO_DELAY_0XED is not set
+# CONFIG_IO_DELAY_UDELAY is not set
+# CONFIG_IO_DELAY_NONE is not set
+CONFIG_DEFAULT_IO_DELAY_TYPE=0
+CONFIG_DEBUG_BOOT_PARAMS=y
+# CONFIG_CPA_DEBUG is not set
+# CONFIG_OPTIMIZE_INLINING is not set
+
+#
+# Security options
+#
+# CONFIG_KEYS is not set
+# CONFIG_SECURITY is not set
+# CONFIG_SECURITYFS is not set
+# CONFIG_SECURITY_FILE_CAPABILITIES is not set
+CONFIG_CRYPTO=y
+
+#
+# Crypto core or helper
+#
+# CONFIG_CRYPTO_FIPS is not set
+CONFIG_CRYPTO_ALGAPI=y
+CONFIG_CRYPTO_AEAD=y
+CONFIG_CRYPTO_BLKCIPHER=y
+CONFIG_CRYPTO_HASH=y
+CONFIG_CRYPTO_RNG=y
+CONFIG_CRYPTO_MANAGER=y
+CONFIG_CRYPTO_GF128MUL=m
+CONFIG_CRYPTO_NULL=m
+# CONFIG_CRYPTO_CRYPTD is not set
+CONFIG_CRYPTO_AUTHENC=m
+CONFIG_CRYPTO_TEST=m
+
+#
+# Authenticated Encryption with Associated Data
+#
+CONFIG_CRYPTO_CCM=m
+CONFIG_CRYPTO_GCM=m
+CONFIG_CRYPTO_SEQIV=m
+
+#
+# Block modes
+#
+CONFIG_CRYPTO_CBC=m
+CONFIG_CRYPTO_CTR=m
+# CONFIG_CRYPTO_CTS is not set
+CONFIG_CRYPTO_ECB=y
+CONFIG_CRYPTO_LRW=m
+CONFIG_CRYPTO_PCBC=m
+CONFIG_CRYPTO_XTS=m
+
+#
+# Hash modes
+#
+CONFIG_CRYPTO_HMAC=y
+CONFIG_CRYPTO_XCBC=m
+
+#
+# Digest
+#
+CONFIG_CRYPTO_CRC32C=m
+# CONFIG_CRYPTO_CRC32C_INTEL is not set
+CONFIG_CRYPTO_MD4=m
+CONFIG_CRYPTO_MD5=y
+CONFIG_CRYPTO_MICHAEL_MIC=m
+# CONFIG_CRYPTO_RMD128 is not set
+# CONFIG_CRYPTO_RMD160 is not set
+# CONFIG_CRYPTO_RMD256 is not set
+# CONFIG_CRYPTO_RMD320 is not set
+CONFIG_CRYPTO_SHA1=y
+CONFIG_CRYPTO_SHA256=m
+CONFIG_CRYPTO_SHA512=m
+CONFIG_CRYPTO_TGR192=m
+CONFIG_CRYPTO_WP512=m
+
+#
+# Ciphers
+#
+CONFIG_CRYPTO_AES=y
+CONFIG_CRYPTO_AES_586=m
+CONFIG_CRYPTO_ANUBIS=m
+CONFIG_CRYPTO_ARC4=y
+CONFIG_CRYPTO_BLOWFISH=m
+CONFIG_CRYPTO_CAMELLIA=m
+CONFIG_CRYPTO_CAST5=m
+CONFIG_CRYPTO_CAST6=m
+CONFIG_CRYPTO_DES=m
+CONFIG_CRYPTO_FCRYPT=m
+CONFIG_CRYPTO_KHAZAD=m
+CONFIG_CRYPTO_SALSA20=m
+CONFIG_CRYPTO_SALSA20_586=m
+CONFIG_CRYPTO_SEED=m
+CONFIG_CRYPTO_SERPENT=m
+CONFIG_CRYPTO_TEA=m
+CONFIG_CRYPTO_TWOFISH=m
+CONFIG_CRYPTO_TWOFISH_COMMON=m
+CONFIG_CRYPTO_TWOFISH_586=m
+
+#
+# Compression
+#
+CONFIG_CRYPTO_DEFLATE=m
+# CONFIG_CRYPTO_LZO is not set
+
+#
+# Random Number Generation
+#
+# CONFIG_CRYPTO_ANSI_CPRNG is not set
+CONFIG_CRYPTO_HW=y
+# CONFIG_CRYPTO_DEV_PADLOCK is not set
+# CONFIG_CRYPTO_DEV_GEODE is not set
+# CONFIG_CRYPTO_DEV_HIFN_795X is not set
+CONFIG_HAVE_KVM=y
+CONFIG_VIRTUALIZATION=y
+
+#
+# Library routines
+#
+CONFIG_BITREVERSE=y
+CONFIG_GENERIC_FIND_FIRST_BIT=y
+CONFIG_GENERIC_FIND_NEXT_BIT=y
+CONFIG_CRC_CCITT=m
+CONFIG_CRC16=m
+# CONFIG_CRC_T10DIF is not set
+CONFIG_CRC_ITU_T=m
+CONFIG_CRC32=y
+# CONFIG_CRC7 is not set
+CONFIG_LIBCRC32C=m
+CONFIG_ZLIB_INFLATE=y
+CONFIG_ZLIB_DEFLATE=m
+CONFIG_TEXTSEARCH=y
+CONFIG_TEXTSEARCH_KMP=m
+CONFIG_TEXTSEARCH_BM=m
+CONFIG_TEXTSEARCH_FSM=m
+CONFIG_PLIST=y
+CONFIG_HAS_IOMEM=y
+CONFIG_HAS_IOPORT=y
+CONFIG_HAS_DMA=y
+CONFIG_CHECK_SIGNATURE=y
+
+
+# CONFIG_THINKPAD_ACPI_DEBUGFACILITIES is not set
+# CONFIG_MFD_PCF50633 is not set
+# CONFIG_SENSORS_ADT7475 is not set
+# CONFIG_LIB80211_DEBUG is not set
+# CONFIG_DNET is not set
+# CONFIG_BE2NET is not set
+
+
+
+# CONFIG_LNW_IPC is not set
+# CONFIG_MRST is not set
+# CONFIG_SFI is not set
+# CONFIG_MDIO_GPIO is not set
+# CONFIG_KEYBOARD_GPIO is not set
+# CONFIG_MOUSE_GPIO is not set
+# CONFIG_I2C_GPIO is not set
+# CONFIG_DEBUG_GPIO is not set
+# CONFIG_GPIO_SYSFS is not set
+# CONFIG_GPIO_LANGWELL is not set
+# CONFIG_GPIO_MAX732X is not set
+# CONFIG_GPIO_PCA953X is not set
+# CONFIG_GPIO_PCF857X is not set
+# CONFIG_GPIO_BT8XX is not set
+# CONFIG_UCB1400_CORE is not set
+# CONFIG_TPS65010 is not set
+# CONFIG_USB_GPIO_VBUS is not set
+# CONFIG_LEDS_GPIO is not set
+# CONFIG_ANDROID_TIMED_GPIO is not set
+# CONFIG_X86_MRST_EARLY_PRINTK is not set
+
+# CONFIG_APB_TIMER is not set
+# CONFIG_MRST_SPI_UART_BOOT_MSG is not set
+# CONFIG_SFI_DEBUG is not set
+# CONFIG_SFI_PROCFS is not set
+# CONFIG_TOUCHSCREEN_UCB1400 is not set
+# CONFIG_GPIO_LNWPMIC is not set
+# CONFIG_RTC_DRV_VRTC is not set
+# CONFIG_MRST_NAND is not set
+# CONFIG_MRST_NAND_HW is not set
+# CONFIG_USB_LANGWELL_OTG is not set
+# CONFIG_KEYBOARD_MRST is not set
+# CONFIG_I2C_MRST is not set
+# CONFIG_MRST_VIB is not set
+# CONFIG_SENSORS_ISL29020 is not set
+# CONFIG_SENSORS_HMC6352 is not set
+# CONFIG_SENSORS_LIS331DL is not set
+# CONFIG_SENSORS_EMC1403 is not set
+# CONFIG_SENSORS_MRST_ANALOG_ACCEL is not set
+# CONFIG_USB_OTG_WHITELIST is not set
+# CONFIG_USB_OTG_BLACKLIST_HUB is not set
+# CONFIG_SND_PCM_OSS_PLUGINS is not set
+# CONFIG_SND_INTEL_SST is not set
+# CONFIG_SST_IPC_NOT_INCLUDED is not set
+# CONFIG_SND_INTELMID is not set
+# CONFIG_TOUCHSCREEN_MRSTOUCH is not set
+CONFIG_ATL1C=m
+# CONFIG_MRST_MMC_WR is not set
+
+
+# CONFIG_VIDEO_MRSTCI is not set
+# CONFIG_VIDEO_MRST_ISP is not set
+# CONFIG_VIDEO_MRST_SENSOR is not set
+# CONFIG_VIDEO_MRST_OV2650 is not set
+# CONFIG_VIDEO_MRST_OV5630 is not set
+# CONFIG_VIDEO_MRST_OV9665 is not set
+# CONFIG_SPI2_MRST is not set
+
+# CONFIG_SFI_PM is not set
+# CONFIG_SFI_CPUIDLE is not set
+# CONFIG_SFI_PROCESSOR_PM is not set
+# CONFIG_X86_SFI_CPUFREQ is not set
+# CONFIG_MSTWN_POWER_MGMT is not set
+# CONFIG_USB_NET_MBM is not set
+
+# CONFIG_USB_GADGET_LANGWELL is not set
+# CONFIG_USB_LANGWELL is not set
+
+# CONFIG_INTEL_LNW_DMAC1 is not set
+# CONFIG_INTEL_LNW_DMAC2 is not set
+# CONFIG_LNW_DMA_DEBUG is not set
+# CONFIG_NET_DMA is not set
+# CONFIG_DMATEST is not set
+# CONFIG_8688_RC is not set
+# CONFIG_SSB_SILENT is not set
+
+# CONFIG_TOUCHSCREEN_TSC2003 is not set
+# CONFIG_MFD_TIMBERDALE is not set
+# CONFIG_MMC_SDHCI_PLTFM is not set
+# CONFIG_SPI_XILINX is not set
+# CONFIG_SPI_MRST is not set
+# CONFIG_GPE is not set
+
+# CONFIG_STRIP_ASM_SYMS is not set
+# CONFIG_X86_EXTENDED_PLATFORM is not set
+# CONFIG_X86_32_NON_STANDARD is not set
+# CONFIG_X86_CPU_DEBUG is not set
+# CONFIG_CC_STACKPROTECTOR is not set
+# CONFIG_DMAR is not set
+# CONFIG_PCI_IOV is not set
+# CONFIG_NETFILTER_XT_TARGET_LED is not set
+# CONFIG_NETFILTER_XT_MATCH_CLUSTER is not set
+# CONFIG_NETFILTER_XT_MATCH_HL is not set
+# CONFIG_NET_DROP_MONITOR is not set
+# CONFIG_ISL29003 is not set
+# CONFIG_SCSI_MPT2SAS is not set
+# CONFIG_LIBFCOE is not set
+# CONFIG_SCSI_OSD_INITIATOR is not set
+# CONFIG_ETHOC is not set
+# CONFIG_IGBVF is not set
+# CONFIG_VXGE it not set
+CONFIG_AT76C50X_USB=m
+# CONFIG_MWL8K is not set
+CONFIG_P54_SPI=m
+CONFIG_AR9170_USB=m
+# CONFIG_IWLWIFI_SPECTRUM_MEASUREMENT is not set
+CONFIG_TOUCHSCREEN_AD7877=m
+CONFIG_TOUCHSCREEN_AD7879_I2C=m
+CONFIG_TOUCHSCREEN_AD7879_SPI=m
+CONFIG_INPUT_GPIO_ROTARY_ENCODER=m
+CONFIG_SERIAL_MAX3100=m
+# CONFIG_HW_RANDOM_TIMERIOMEM is not set
+# CONFIG_SENSORS_ATK0110 is not set
+# CONFIG_SENSORS_G760A is not set
+# CONFIG_SENSORS_LTC4215 is not set
+# CONFIG_SENSORS_LM95241 is not set
+# CONFIG_SENSORS_SHT15 is not set
+# CONFIG_MEDIA_TUNER_CUSTOMISE is not set
+# CONFIG_VIDEO_ZORAN is not set
+CONFIG_USB_GSPCA_MR97310A=m
+CONFIG_USB_GSPCA_SQ905=m
+CONFIG_USB_GSPCA_SQ905C=m
+# CONFIG_VIDEO_HDPVR is not set
+# CONFIG_VIDEO_CX231XX is not set
+# CONFIG_USB_PWC_INPUT_EVDEV is not set
+# CONFIG_FB_BROADSHEET is not set
+# CONFIG_SND_PCSP is not set
+# CONFIG_SND_INDIGOIOX is not set
+# CONFIG_SND_INDIGODJX is not set
+# CONFIG_DRAGONRISE_FF is not set 
+CONFIG_USB_SERIAL_CP210X=m
+CONFIG_USB_SERIAL_QUALCOMM=m
+CONFIG_USB_SERIAL_SYMBOL=m
+# CONFIG_NOP_USB_XCEIV is not set
+# CONFIG_LEDS_LP5521 is not set
+# CONFIG_LEDS_DAC124S085 is not set
+# CONFIG_LEDS_BD2802 is not set
+# CONFIG_LEDS_TRIGGER_GPIO is not set
+# CONFIG_AUXDISPLAY is not set
+CONFIG_RT3070=m
+# CONFIG_DST is not set
+# CONFIG_POHMELFS is not set
+# CONFIG_STLC45XX is not set
+CONFIG_USB_SERIAL_ATEN2011=m
+# CONFIG_B3DFG is not set
+# CONFIG_IDE_PHISON is not set
+# CONFIG_PLAN9AUTH is not set
+# CONFIG_HECI is not set
+CONFIG_LINE6_USB=m
+CONFIG_USB_SERIAL_QUATECH_ESU100=m
+CONFIG_DELL_WMI=m
+# CONFIG_THINKPAD_ACPI_UNSAFE_LEDS is not set
+# CONFIG_EXT3_DEFAULTS_TO_ORDERED is not set
+# CONFIG_FSCACHE is not set
+# CONFIG_NILFS2_FS is not set
+# CONFIG_DETECT_HUNG_TASK is not set
+# CONFIG_BOOTPARAM_HUNG_TASK_PANIC is not set
+CONFIG_EVENT_TRACER=y
+# CONFIG_FTRACE_SYSCALLS is not set
+# CONFIG_KMEMTRACE is not set
+# CONFIG_WORKQUEUE_TRACER is not set
+# CONFIG_DYNAMIC_DEBUG is not set
+# CONFIG_DMA_API_DEBUG is not set
+# CONFIG_IMA is not set
+CONFIG_CRYPTO_ZLIB=y
+# CONFIG_VXGE is not set
+# CONFIG_COMPAT_NET_DEV_OPS is not set
+CONFIG_RD_GZIP=y
+# CONFIG_RD_BZIP2 is not set
+# CONFIG_RD_LZMA is not set
+CONFIG_SENSORS_LIS3_SPI=y
+# CONFIG_VIDEO_SAA6588 is not set
+# CONFIG_VIDEO_BT819 is not set
+# CONFIG_VIDEO_BT856 is not set
+# CONFIG_VIDEO_BT866 is not set
+# CONFIG_VIDEO_KS0127 is not set
+# CONFIG_VIDEO_SAA7110 is not set
+# CONFIG_VIDEO_VPX3220 is not set
+# CONFIG_VIDEO_SAA7185 is not set
+# CONFIG_VIDEO_ADV7170 is not set
+# CONFIG_VIDEO_ADV7175 is not set
+# CONFIG_HID_KYE is not set
+# CONFIG_HID_KENSINGTON is not set
+# CONFIG_SECURITY_TOMOYO is not set
+# CONFIG_RTC_DRV_M41T94 is not set
+# CONFIG_RTC_DRV_DS1305 is not set
+# CONFIG_RTC_DRV_DS1390 is not set
+# CONFIG_RTC_DRV_MAX6902 is not set
+# CONFIG_RTC_DRV_R9701 is not set
+# CONFIG_RTC_DRV_RS5C348 is not set
+# CONFIG_RTC_DRV_DS3234 is not set
+
+# CONFIG_KS8842 is not set
+# CONFIG_VIDEO_ADV7180 is not set
+# CONFIG_MOST is not set
+
+CONFIG_PERF_COUNTERS=y
+CONFIG_EVENT_PROFILE=y
+# CONFIG_GCOV_KERNEL is not set
+CONFIG_LBDAF=y
+# CONFIG_X86_OLD_MCE is not set
+CONFIG_X86_MCE_INTEL=y
+# CONFIG_X86_MCE_AMD is not set
+# CONFIG_X86_ANCIENT_MCE is not set
+# CONFIG_X86_MCE_INJECT is not set
+CONFIG_DEFAULT_MMAP_MIN_ADDR=4096
+# CONFIG_NETFILTER_XT_MATCH_OSF is not set
+# CONFIG_IEEE802154 is not set
+# CONFIG_CFG80211_DEBUGFS is not set
+CONFIG_MAC80211_DEFAULT_PS=y
+# CONFIG_EEPROM_MAX6875 is not set
+# CONFIG_CB710_CORE is not set
+# CONFIG_SCSI_BNX2_ISCSI is not set
+# CONFIG_DM_LOG_USERSPACE is not set
+# CONFIG_DM_MULTIPATH_QL is not set
+# CONFIG_DM_MULTIPATH_ST is not set
+# CONFIG_CNIC is not set
+# CONFIG_RT2800USB is not set
+# CONFIG_WL12XX is not set
+# CONFIG_IWM is not set
+# CONFIG_USB_NET_INT51X1 is not set
+# CONFIG_KEYBOARD_LM8323 is not set
+# CONFIG_MOUSE_SYNAPTICS_I2C is not set
+# CONFIG_TOUCHSCREEN_EETI is not set
+# CONFIG_TOUCHSCREEN_W90X900 is not set
+# CONFIG_I2C_DESIGNWARE is not set
+# CONFIG_PPS is not set
+# CONFIG_BATTERY_MAX17040 is not set
+# CONFIG_SENSORS_TMP401 is not set
+# CONFIG_AB3100_CORE is not set
+# CONFIG_EZX_PCAP is not set
+# CONFIG_SND_CTXFI is not set
+# CONFIG_SND_HDA_INPUT_JACK is not set
+CONFIG_SND_HDA_CODEC_CA0110=y
+# CONFIG_SND_LX6464ES is not set
+# CONFIG_SMARTJOYPLUS_FF is not set
+# CONFIG_USB_XHCI_HCD is not set
+# CONFIG_MMC_CB710 is not set
+# CONFIG_MMC_VIA_SDMMC is not set
+# CONFIG_RTC_DRV_RX8025 is not set
+# CONFIG_USB_SERIAL_QUATECH2 is not set
+# CONFIG_VT6655 is not set
+# CONFIG_USB_CPC is not set
+# CONFIG_RDC_17F3101X is not set
+# CONFIG_FB_UDL is not set
+CONFIG_ACERHDF=m
+CONFIG_FSNOTIFY=y
+# CONFIG_CUSE is not set
+# CONFIG_DEBUG_KMEMLEAK is not set
+CONFIG_FTRACE=y
+# CONFIG_RING_BUFFER_BENCHMARK is not set
+# CONFIG_IOMMU_STRESS is not set
+# CONFIG_LGUEST is not set
+# CONFIG_MRST_LNW_A1_WR is not set
+# CONFIG_MRST_LNW_A2_WR is not set
+# CONFIG_KEYBOARD_MATRIX is not set
+# CONFIG_LEDS_LP3944 is not set
+CONFIG_RTL8192SU=m
+# CONFIG_KS8851 is not set
+# CONFIG_BATTERY_DS2782 is not set
+CONFIG_USB_GSPCA_SN9C20X=m
+CONFIG_USB_GSPCA_SN9C20X_EVDEV=y
+# CONFIG_I2C_XILINX is not set
+# CONFIG_RADIO_SAA7706H is not set
+# CONFIG_RADIO_TEF6862 is not set
+# CONFIG_RAR_REGISTER is not set
+# CONFIG_MRST_RAR_HANDLER is not set
+# CONFIG_MRST_CEATA_SUPPORT is not set
+# CONFIG_MRST_IPC_TEST is not set
+# CONFIG_DX_SEP is not set
+# CONFIG_BT_MRVL is not set
+# CONFIG_BT_MRVL_SDIO is not set
+# CONFIG_GPIO_LANGWELL_PMIC is not set
+
+
+#
+# MTD options -- subconfigs need to turn on MTD themselves
+# for these to become active
+#
+# CONFIG_MTD_DEBUG is not set
+CONFIG_MTD_CONCAT=y
+CONFIG_MTD_PARTITIONS=y
+# CONFIG_MTD_TESTS is not set
+# CONFIG_MTD_BLOCK_RO is not set
+# CONFIG_FTL is not set
+# CONFIG_NFTL is not set
+# CONFIG_INFTL is not set
+# CONFIG_RFD_FTL is not set
+# CONFIG_SSFDC is not set
+# CONFIG_MTD_OOPS is not set
+# CONFIG_MTD_CFI is not set
+# CONFIG_MTD_JEDECPROBE is not set
+# CONFIG_MTD_RAM is not set
+# CONFIG_MTD_ROM is not set
+# CONFIG_MTD_ABSENT is not
+# CONFIG_MTD_COMPLEX_MAPPINGS it not set
+# CONFIG_MTD_TS5500 is not set
+# CONFIG_MTD_INTEL_VR_NOR is not set
+# CONFIG_MTD_PLATRAM is not set
+# CONFIG_MTD_PMC551 is not set
+# CONFIG_MTD_DATAFLASH is not set
+# CONFIG_MTD_M25P80 is not set
+# CONFIG_MTD_SLRAM is not set
+# CONFIG_MTD_PHRAM is not set
+# CONFIG_MTD_MTDRAM is not set
+# CONFIG_MTD_BLOCK2MTD is not set 
+# CONFIG_MTD_DOC2000 is not set
+# CONFIG_MTD_DOC2001 is not set
+# CONFIG_MTD_DOC2001PLUS is not set
+CONFIG_MTD_NAND=y
+# CONFIG_MTD_ONENAND is not set 
+# CONFIG_MTD_LPDDR is not set
+CONFIG_MTD_UBI=y
+CONFIG_JFFS2_FS=y
+# CONFIG_MTD_REDBOOT_PARTS is not set
+# CONFIG_MTD_CMDLINE_PARTS is not set
+# CONFIG_MTD_AR7_PARTS is not set
+# CONFIG_MTD_ABSENT is not set
+# CONFIG_MTD_COMPLEX_MAPPINGS is not set
+# CONFIG_MTD_NAND_VERIFY_WRITE is not set
+# CONFIG_MTD_NAND_ECC_SMC is not set
+# CONFIG_MTD_NAND_MUSEUM_IDS is not set
+# CONFIG_MTD_NAND_DISKONCHIP is not set
+# CONFIG_MTD_NAND_CAFE is not set
+# CONFIG_MTD_NAND_CS553X is not set
+# CONFIG_MTD_NAND_NANDSIM is not set
+# CONFIG_MTD_NAND_PLATFORM is not set
+# CONFIG_MTD_ALAUDA is not set
+# CONFIG_MTD_UBI_GLUEBI is not set 
+# CONFIG_MTD_UBI_DEBUG is not set
+# CONFIG_JFFS2_FS_WRITEBUFFER is not set
+# CONFIG_JFFS2_FS_WBUF_VERIFY is not set
+# CONFIG_JFFS2_SUMMARY is not set
+CONFIG_JFFS2_FS_XATTR=y
+# CONFIG_JFFS2_COMPRESSION_OPTIONS is not set 
+CONFIG_UBIFS_FS=m
+
+# CONFIG_MTD_CHAR is not set
+# CONFIG_MTD_BLKDEVS is not set
+# CONFIG_MTD_BLOCK is not set
+# CONFIG_MTD_BLOCK_RO is not set
+# CONFIG_FTL is not set
+# CONFIG_NFTL is not set
+# CONFIG_INFTL is not set
+# CONFIG_RFD_FTL is not set
+# CONFIG_SSFDC is not set
+# CONFIG_MTD_OOPS is not set
+CONFIG_JFFS2_FS=y
+CONFIG_JFFS2_FS_DEBUG=0
+# CONFIG_JFFS2_FS_WRITEBUFFER is not set
+# CONFIG_JFFS2_SUMMARY is not set
+CONFIG_JFFS2_FS_XATTR=y
+CONFIG_JFFS2_FS_POSIX_ACL=y
+CONFIG_JFFS2_FS_SECURITY=y
+# CONFIG_JFFS2_COMPRESSION_OPTIONS is not set
+CONFIG_JFFS2_ZLIB=y
+# CONFIG_JFFS2_LZO is not set
+CONFIG_JFFS2_RTIME=y
+# CONFIG_JFFS2_RUBIN is not set
+CONFIG_UBIFS_FS=m
+# CONFIG_UBIFS_FS_XATTR is not set
+# CONFIG_UBIFS_FS_ADVANCED_COMPR is not set
+CONFIG_UBIFS_FS_LZO=y
+CONFIG_UBIFS_FS_ZLIB=y
+# CONFIG_UBIFS_FS_DEBUG is not set
+CONFIG_MTD_UBI_WL_THRESHOLD=4096
+CONFIG_MTD_UBI_BEB_RESERVE=1
+# CONFIG_MTD_UBI_GLUEBI is not set
+# CONFIG_IEGD is not set
+# CONFIG_SERIAL_UARTLITE is not set
+# CONFIG_R8169_VLAN is not set
+# CONFIG_ATH5K_DEBUG is not set
+CONFIG_FONT_8x8=y
+CONFIG_FONT_6x11=y
+CONFIG_FONT_7x14=y
+# CONFIG_FONT_PEARL_8x8 is not set
+# CONFIG_FONT_ACORN_8x8 is not set
+# CONFIG_FONT_MINI_4x6 is not set
+# CONFIG_FONT_SUN8x16 is not set
+# CONFIG_FONT_SUN12x22 is not set
+CONFIG_FONT_10x18=y
+CONFIG_KVM=m
+CONFIG_KVM_INTEL=m
+# CONFIG_KVM_AMD is not set
+# CONFIG_KVM_TRACE is not set
+# CONFIG_VIRTIO_PCI is not set
+# CONFIG_VIRTIO_BALLOON is not set
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-build-nonintconfig.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-build-nonintconfig.patch
new file mode 100644 (file)
index 0000000..38de047
--- /dev/null
@@ -0,0 +1,142 @@
+From e412ebbb8cea2aaf32f689ffc630b57cfe13bde5 Mon Sep 17 00:00:00 2001
+From: Alan Olsen <alanx.r.olsen@intel.com>
+Date: Tue, 21 Jul 2009 13:14:25 -0700
+Subject: [PATCH] linux-2.6-build-nonintconfig.patch
+
+Signed-off-by: Alan Olsen <alanx.r.olsen@intel.com>
+---
+ scripts/kconfig/Makefile |    5 +++++
+ scripts/kconfig/conf.c   |   36 ++++++++++++++++++++++++++++++++----
+ 2 files changed, 37 insertions(+), 4 deletions(-)
+
+diff --git a/scripts/kconfig/Makefile b/scripts/kconfig/Makefile
+index 5ddf8be..a4365db 100644
+--- a/scripts/kconfig/Makefile
++++ b/scripts/kconfig/Makefile
+@@ -28,6 +28,11 @@ oldconfig: $(obj)/conf
+ silentoldconfig: $(obj)/conf
+       $< -s $(Kconfig)
++nonint_oldconfig: $(obj)/conf
++      $< -b $(Kconfig)
++loose_nonint_oldconfig: $(obj)/conf
++      $< -B $(Kconfig)
++
+ # Create new linux.pot file
+ # Adjust charset to UTF-8 in .po file to accept UTF-8 in Kconfig files
+ # The symlink is used to repair a deficiency in arch/um
+diff --git a/scripts/kconfig/conf.c b/scripts/kconfig/conf.c
+index 3baaaec..2a81742 100644
+--- a/scripts/kconfig/conf.c
++++ b/scripts/kconfig/conf.c
+@@ -23,6 +23,8 @@ enum {
+       ask_all,
+       ask_new,
+       ask_silent,
++      dont_ask,
++      dont_ask_dont_tell,
+       set_default,
+       set_yes,
+       set_mod,
+@@ -40,6 +42,8 @@ static struct menu *rootEntry;
+ static char nohelp_text[] = N_("Sorry, no help available for this option yet.\n");
++static int return_value = 0;
++
+ static const char *get_help(struct menu *menu)
+ {
+       if (menu_has_help(menu))
+@@ -360,7 +364,10 @@ static void conf(struct menu *menu)
+               switch (prop->type) {
+               case P_MENU:
+-                      if (input_mode == ask_silent && rootEntry != menu) {
++                      if ((input_mode == ask_silent ||
++                           input_mode == dont_ask ||
++                           input_mode == dont_ask_dont_tell) &&
++                          rootEntry != menu) {
+                               check_conf(menu);
+                               return;
+                       }
+@@ -418,12 +425,21 @@ static void check_conf(struct menu *menu)
+       if (sym && !sym_has_value(sym)) {
+               if (sym_is_changable(sym) ||
+                   (sym_is_choice(sym) && sym_get_tristate_value(sym) == yes)) {
++                      if (input_mode == dont_ask ||
++                          input_mode == dont_ask_dont_tell) {
++                              if (input_mode == dont_ask &&
++                                  sym->name && !sym_is_choice_value(sym)) {
++                                      fprintf(stderr,"CONFIG_%s\n",sym->name);
++                                      ++return_value;
++                              }
++                      } else {
+                       if (!conf_cnt++)
+                               printf(_("*\n* Restart config...\n*\n"));
+                       rootEntry = menu_get_parent_menu(menu);
+                       conf(rootEntry);
+               }
+       }
++      }
+       for (child = menu->list; child; child = child->next)
+               check_conf(child);
+@@ -439,7 +455,7 @@ int main(int ac, char **av)
+       bindtextdomain(PACKAGE, LOCALEDIR);
+       textdomain(PACKAGE);
+-      while ((opt = getopt(ac, av, "osdD:nmyrh")) != -1) {
++      while ((opt = getopt(ac, av, "osbBdD:nmyrh")) != -1) {
+               switch (opt) {
+               case 'o':
+                       input_mode = ask_silent;
+@@ -448,6 +464,12 @@ int main(int ac, char **av)
+                       input_mode = ask_silent;
+                       sync_kconfig = 1;
+                       break;
++              case 'b':
++                      input_mode = dont_ask;
++                      break;
++              case 'B':
++                      input_mode = dont_ask_dont_tell;
++                      break;
+               case 'd':
+                       input_mode = set_default;
+                       break;
+@@ -525,6 +547,8 @@ int main(int ac, char **av)
+       case ask_silent:
+       case ask_all:
+       case ask_new:
++      case dont_ask:
++      case dont_ask_dont_tell:
+               conf_read(NULL);
+               break;
+       case set_no:
+@@ -586,12 +610,16 @@ int main(int ac, char **av)
+               conf(&rootmenu);
+               input_mode = ask_silent;
+               /* fall through */
++      case dont_ask:
++      case dont_ask_dont_tell:
+       case ask_silent:
+               /* Update until a loop caused no more changes */
+               do {
+                       conf_cnt = 0;
+                       check_conf(&rootmenu);
+-              } while (conf_cnt);
++              } while (conf_cnt &&
++                       (input_mode != dont_ask &&
++                        input_mode != dont_ask_dont_tell));
+               break;
+       }
+@@ -613,5 +641,5 @@ int main(int ac, char **av)
+                       exit(1);
+               }
+       }
+-      return 0;
++      return return_value;
+ }
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-driver-level-usb-autosuspend.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-driver-level-usb-autosuspend.patch
new file mode 100644 (file)
index 0000000..0073343
--- /dev/null
@@ -0,0 +1,61 @@
+commit 0f592e33934bf6108e33e34f00b425f98ee833ef
+Author: Matthew Garrett <mjg@redhat.com>
+Date:   Wed Jul 8 19:04:23 2009 +0100
+
+    usb: Allow drivers to enable USB autosuspend on a per-device basis
+    
+    USB autosuspend is currently only enabled by default for hubs. On other
+    hardware the decision is made by userspace. This is unnecessary in cases
+    where we know that the hardware supports autosuspend, so this patch adds
+    a function to allow drivers to enable it at probe time.
+    
+    Signed-off-by: Matthew Garrett <mjg@redhat.com>
+
+diff --git a/drivers/usb/core/driver.c b/drivers/usb/core/driver.c
+index 69e5773..6e81caa 100644
+--- a/drivers/usb/core/driver.c
++++ b/drivers/usb/core/driver.c
+@@ -1560,6 +1560,21 @@ void usb_autopm_put_interface_async(struct usb_interface *intf)
+ EXPORT_SYMBOL_GPL(usb_autopm_put_interface_async);
+ /**
++ * usb_device_autosuspend_enable - enable autosuspend on a device
++ * @udev: the usb_device to be autosuspended
++ *
++ * This routine should be called by an interface driver when it knows that
++ * the device in question supports USB autosuspend.
++ *
++ */
++void usb_device_autosuspend_enable(struct usb_device *udev)
++{
++      udev->autosuspend_disabled = 0;
++      udev->autoresume_disabled = 0;
++}
++EXPORT_SYMBOL_GPL(usb_device_autosuspend_enable);
++
++/**
+  * usb_autopm_get_interface - increment a USB interface's PM-usage counter
+  * @intf: the usb_interface whose counter should be incremented
+  *
+diff --git a/include/linux/usb.h b/include/linux/usb.h
+index b1e3c2f..61bddbe 100644
+--- a/include/linux/usb.h
++++ b/include/linux/usb.h
+@@ -543,6 +543,7 @@ extern struct usb_device *usb_find_device(u16 vendor_id, u16 product_id);
+ /* USB autosuspend and autoresume */
+ #ifdef CONFIG_USB_SUSPEND
++extern void usb_device_autosuspend_enable(struct usb_device *udev);
+ extern int usb_autopm_set_interface(struct usb_interface *intf);
+ extern int usb_autopm_get_interface(struct usb_interface *intf);
+ extern void usb_autopm_put_interface(struct usb_interface *intf);
+@@ -568,6 +569,9 @@ static inline void usb_mark_last_busy(struct usb_device *udev)
+ #else
++static inline void usb_device_autosuspend_enable(struct usb_device *udev)
++{ }
++
+ static inline int usb_autopm_set_interface(struct usb_interface *intf)
+ { return 0; }
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-usb-uvc-autosuspend.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6-usb-uvc-autosuspend.patch
new file mode 100644 (file)
index 0000000..b7c7f6e
--- /dev/null
@@ -0,0 +1,19 @@
+commit 9d4c919bcfa794c054cc33155c7e3c53ac2c5684
+Author: Matthew Garrett <mjg@redhat.com>
+Date:   Sun Jul 19 02:24:49 2009 +0100
+
+    Enable autosuspend on UVC by default
+
+diff --git a/drivers/media/video/uvc/uvc_driver.c b/drivers/media/video/uvc/uvc_driver.c
+index 89927b7..8de516b 100644
+--- a/drivers/media/video/uvc/uvc_driver.c
++++ b/drivers/media/video/uvc/uvc_driver.c
+@@ -1647,6 +1647,8 @@ static int uvc_probe(struct usb_interface *intf,
+                       "supported.\n", ret);
+       }
++      usb_device_autosuspend_enable(udev);
++
+       uvc_trace(UVC_TRACE_PROBE, "UVC device initialized.\n");
+       return 0;
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-dont-wait-for-mouse.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-dont-wait-for-mouse.patch
new file mode 100644 (file)
index 0000000..6b2d54f
--- /dev/null
@@ -0,0 +1,47 @@
+From dce8113d033975f56630cf6d2a6a908cfb66059d Mon Sep 17 00:00:00 2001
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Sun, 20 Jul 2008 13:12:16 -0700
+Subject: [PATCH] fastboot: remove "wait for all devices before mounting root" delay
+
+In the non-initrd case, we wait for all devices to finish their
+probing before we try to mount the rootfs.
+In practice, this means that we end up waiting 2 extra seconds for
+the PS/2 mouse probing even though the root holding device has been
+ready since a long time.
+
+The previous two patches in this series made the RAID autodetect code
+do it's own "wait for probing to be done" code, and added
+"wait and retry" functionality in case the root device isn't actually
+available.
+
+These two changes should make it safe to remove the delay itself,
+and this patch does this. On my test laptop, this reduces the boot time
+by 2 seconds (kernel time goes from 3.9 to 1.9 seconds).
+
+Signed-off-by: Arjan van de Ven <arjan@linux.intel.com>
+---
+---
+ init/do_mounts.c |    3 +++
+ 1 file changed, 3 insertions(+)
+
+Index: linux-2.6.29/init/do_mounts.c
+===================================================================
+--- linux-2.6.29.orig/init/do_mounts.c
++++ linux-2.6.29/init/do_mounts.c
+@@ -370,6 +370,7 @@ void __init prepare_namespace(void)
+               ssleep(root_delay);
+       }
++#if 0
+       /*
+        * wait for the known devices to complete their probing
+        *
+@@ -378,6 +379,8 @@ void __init prepare_namespace(void)
+        * for the touchpad of a laptop to initialize.
+        */
+       wait_for_device_probe();
++#endif
++      async_synchronize_full();
+       md_run_setup();
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-jbd-longer-commit-interval.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-jbd-longer-commit-interval.patch
new file mode 100644 (file)
index 0000000..46a9e24
--- /dev/null
@@ -0,0 +1,25 @@
+From 0143f8eb8afcaccba5a78196fb3db4361e0097a7 Mon Sep 17 00:00:00 2001
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Mon, 9 Feb 2009 21:25:32 -0800
+Subject: [PATCH] jbd: longer commit interval
+
+... 5 seconds is rather harsh on ssd's..
+
+Signed-off-by: Arjan van de Ven <arjan@linux.intel.com>
+---
+ include/linux/jbd.h |    2 +-
+ 1 file changed, 1 insertion(+), 1 deletion(-)
+
+Index: linux-2.6.29/include/linux/jbd.h
+===================================================================
+--- linux-2.6.29.orig/include/linux/jbd.h
++++ linux-2.6.29/include/linux/jbd.h
+@@ -46,7 +46,7 @@
+ /*
+  * The default maximum commit age, in seconds.
+  */
+-#define JBD_DEFAULT_MAX_COMMIT_AGE 5
++#define JBD_DEFAULT_MAX_COMMIT_AGE 15
+ #ifdef CONFIG_JBD_DEBUG
+ /*
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-after-sata.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-after-sata.patch
new file mode 100644 (file)
index 0000000..f635e2a
--- /dev/null
@@ -0,0 +1,38 @@
+---
+ drivers/Makefile |   14 +++++++-------
+ 1 file changed, 7 insertions(+), 7 deletions(-)
+
+Index: linux-2.6.29/drivers/Makefile
+===================================================================
+--- linux-2.6.29.orig/drivers/Makefile
++++ linux-2.6.29/drivers/Makefile
+@@ -25,15 +25,8 @@ obj-$(CONFIG_REGULATOR)             += regulator/
+ # default.
+ obj-y                         += char/
+-# gpu/ comes after char for AGP vs DRM startup
+-obj-y                         += gpu/
+-
+ obj-$(CONFIG_CONNECTOR)               += connector/
+-# i810fb and intelfb depend on char/agp/
+-obj-$(CONFIG_FB_I810)           += video/i810/
+-obj-$(CONFIG_FB_INTEL)          += video/intelfb/
+-
+ obj-y                         += serial/
+ obj-$(CONFIG_PARPORT)         += parport/
+ obj-y                         += base/ block/ misc/ mfd/ media/
+@@ -43,6 +36,13 @@ obj-$(CONFIG_IDE)           += ide/
+ obj-$(CONFIG_SCSI)            += scsi/
+ obj-$(CONFIG_ATA)             += ata/
+ obj-y                         += net/
++
++# gpu/ comes after char for AGP vs DRM startup
++obj-y                         += gpu/
++# i810fb and intelfb depend on char/agp/
++obj-$(CONFIG_FB_I810)           += video/i810/
++obj-$(CONFIG_FB_INTEL)          += video/intelfb/
++
+ obj-$(CONFIG_ATM)             += atm/
+ obj-$(CONFIG_FUSION)          += message/
+ obj-$(CONFIG_FIREWIRE)                += firewire/
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-dont-blank-display.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-dont-blank-display.patch
new file mode 100644 (file)
index 0000000..ad26326
--- /dev/null
@@ -0,0 +1,33 @@
+--- vanilla-2.6.31-rc4/drivers/gpu/drm/i915/intel_lvds.c~      2009-07-31 11:23:05.000000000 -0700
++++ vanilla-2.6.31-rc4/drivers/gpu/drm/i915/intel_lvds.c       2009-07-31 11:23:05.000000000 -0700
+@@ -111,19 +111,12 @@ static void intel_lvds_set_power(struct 
+       if (on) {
+               I915_WRITE(ctl_reg, I915_READ(ctl_reg) |
+                          POWER_TARGET_ON);
+-              do {
+-                      pp_status = I915_READ(status_reg);
+-              } while ((pp_status & PP_ON) == 0);
+-
+               intel_lvds_set_backlight(dev, dev_priv->backlight_duty_cycle);
+       } else {
+               intel_lvds_set_backlight(dev, 0);
+               I915_WRITE(ctl_reg, I915_READ(ctl_reg) &
+                          ~POWER_TARGET_ON);
+-              do {
+-                      pp_status = I915_READ(status_reg);
+-              } while (pp_status & PP_ON);
+       }
+ }
+--- linux-2.6.31/drivers/gpu/drm/i915/intel_lvds.c~    2009-10-11 10:13:38.000000000 -0700
++++ linux-2.6.31/drivers/gpu/drm/i915/intel_lvds.c     2009-10-11 10:13:38.000000000 -0700
+@@ -98,7 +98,7 @@
+ static void intel_lvds_set_power(struct drm_device *dev, bool on)
+ {
+       struct drm_i915_private *dev_priv = dev->dev_private;
+-      u32 pp_status, ctl_reg, status_reg;
++      u32 ctl_reg, status_reg;
+       if (IS_IGDNG(dev)) {
+               ctl_reg = PCH_PP_CONTROL;
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-edid-cache.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-edid-cache.patch
new file mode 100644 (file)
index 0000000..47e5b16
--- /dev/null
@@ -0,0 +1,58 @@
+diff --git a/drivers/gpu/drm/i915/intel_drv.h b/drivers/gpu/drm/i915/intel_drv.h
+index 004541c..b218780 100644
+--- a/drivers/gpu/drm/i915/intel_drv.h
++++ b/drivers/gpu/drm/i915/intel_drv.h
+@@ -81,6 +81,7 @@ struct intel_output {
+       int type;
+       struct i2c_adapter *i2c_bus;
+       struct i2c_adapter *ddc_bus;
++      struct edid *edid;
+       bool load_detect_temp;
+       bool needs_tv_clock;
+       void *dev_priv;
+diff --git a/drivers/gpu/drm/i915/intel_lvds.c b/drivers/gpu/drm/i915/intel_lvds.c
+index 9ab38ef..9fba800 100644
+--- a/drivers/gpu/drm/i915/intel_lvds.c
++++ b/drivers/gpu/drm/i915/intel_lvds.c
+@@ -657,6 +657,7 @@ static void intel_lvds_destroy(struct drm_connector *connector)
+               intel_i2c_destroy(intel_output->ddc_bus);
+       drm_sysfs_connector_remove(connector);
+       drm_connector_cleanup(connector);
++      kfree(intel_output->edid);
+       kfree(connector);
+ }
+@@ -1017,5 +1018,6 @@ failed:
+       if (intel_output->ddc_bus)
+               intel_i2c_destroy(intel_output->ddc_bus);
+       drm_connector_cleanup(connector);
++      kfree(intel_output->edid);
+       kfree(intel_output);
+ }
+diff --git a/drivers/gpu/drm/i915/intel_modes.c b/drivers/gpu/drm/i915/intel_modes.c
+index 67e2f46..5ac537f 100644
+--- a/drivers/gpu/drm/i915/intel_modes.c
++++ b/drivers/gpu/drm/i915/intel_modes.c
+@@ -74,6 +74,10 @@ int intel_ddc_get_modes(struct intel_output *intel_output)
+       int ret = 0;
+       intel_i2c_quirk_set(intel_output->base.dev, true);
++      if (intel_output->edid && intel_output->type == INTEL_OUTPUT_LVDS) {
++              printk(KERN_INFO "Skipping EDID probe due to cached edid\n");
++              return ret;
++      }
+       edid = drm_get_edid(&intel_output->base, intel_output->ddc_bus);
+       intel_i2c_quirk_set(intel_output->base.dev, false);
+       if (edid) {
+@@ -81,7 +85,10 @@ int intel_ddc_get_modes(struct intel_output *intel_output)
+                                                       edid);
+               ret = drm_add_edid_modes(&intel_output->base, edid);
+               intel_output->base.display_info.raw_edid = NULL;
+-              kfree(edid);
++              if (intel_output->type == INTEL_OUTPUT_LVDS)
++                      intel_output->edid = edid;
++              else
++                      kfree(edid);
+       }
+       return ret;
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-run-async.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-kms-run-async.patch
new file mode 100644 (file)
index 0000000..eaef8eb
--- /dev/null
@@ -0,0 +1,118 @@
+Index: b/drivers/gpu/drm/drm_crtc_helper.c
+===================================================================
+--- a/drivers/gpu/drm/drm_crtc_helper.c
++++ b/drivers/gpu/drm/drm_crtc_helper.c
+@@ -29,6 +29,8 @@
+  *      Jesse Barnes <jesse.barnes@intel.com>
+  */
++#include <linux/async.h>
++
+ #include "drmP.h"
+ #include "drm_crtc.h"
+ #include "drm_crtc_helper.h"
+@@ -62,6 +64,8 @@ static void drm_mode_validate_flag(struc
+       return;
+ }
++LIST_HEAD(drm_async_list);
++
+ /**
+  * drm_helper_probe_connector_modes - get complete set of display modes
+  * @dev: DRM device
+@@ -916,6 +920,7 @@ bool drm_helper_plugged_event(struct drm
+       /* FIXME: send hotplug event */
+       return true;
+ }
++
+ /**
+  * drm_initial_config - setup a sane initial connector configuration
+  * @dev: DRM device
+@@ -953,13 +958,26 @@ bool drm_helper_initial_config(struct dr
+       drm_setup_crtcs(dev);
+-      /* alert the driver fb layer */
+       dev->mode_config.funcs->fb_changed(dev);
+-
+       return 0;
+ }
+ EXPORT_SYMBOL(drm_helper_initial_config);
++static void drm_helper_initial_config_helper(void *ptr, async_cookie_t cookie)
++{
++      struct drm_device *dev = ptr;
++      drm_helper_initial_config(dev);
++}
++
++void drm_helper_initial_config_async(struct drm_device *dev)
++{
++      async_schedule_domain(drm_helper_initial_config_helper,
++                              dev, &drm_async_list);
++}
++EXPORT_SYMBOL(drm_helper_initial_config_async);
++
++
++
+ static int drm_helper_choose_encoder_dpms(struct drm_encoder *encoder)
+ {
+       int dpms = DRM_MODE_DPMS_OFF;
+Index: b/drivers/gpu/drm/drm_drv.c
+===================================================================
+--- a/drivers/gpu/drm/drm_drv.c
++++ b/drivers/gpu/drm/drm_drv.c
+@@ -49,6 +49,7 @@
+ #include <linux/debugfs.h>
+ #include "drmP.h"
+ #include "drm_core.h"
++#include <linux/async.h>
+ static int drm_version(struct drm_device *dev, void *data,
+@@ -290,6 +291,9 @@ void drm_exit(struct drm_driver *driver)
+       struct drm_device *dev, *tmp;
+       DRM_DEBUG("\n");
++      /* make sure all async DRM operations are finished */
++      async_synchronize_full_domain(&drm_async_list);
++
+       if (driver->driver_features & DRIVER_MODESET) {
+               pci_unregister_driver(&driver->pci_driver);
+       } else {
+Index: b/include/drm/drmP.h
+===================================================================
+--- a/include/drm/drmP.h
++++ b/include/drm/drmP.h
+@@ -328,6 +328,7 @@ struct drm_vma_entry {
+       pid_t pid;
+ };
++extern struct list_head drm_async_list;
+ /**
+  * DMA buffer.
+  */
+Index: b/include/drm/drm_crtc_helper.h
+===================================================================
+--- a/include/drm/drm_crtc_helper.h
++++ b/include/drm/drm_crtc_helper.h
+@@ -92,6 +92,7 @@ extern int drm_helper_probe_single_conne
+ extern void drm_helper_disable_unused_functions(struct drm_device *dev);
+ extern int drm_helper_hotplug_stage_two(struct drm_device *dev);
+ extern bool drm_helper_initial_config(struct drm_device *dev);
++extern void drm_helper_initial_config_async(struct drm_device *dev);
+ extern int drm_crtc_helper_set_config(struct drm_mode_set *set);
+ extern bool drm_crtc_helper_set_mode(struct drm_crtc *crtc,
+                                    struct drm_display_mode *mode,
+Index: b/drivers/gpu/drm/i915/i915_dma.c
+===================================================================
+--- a/drivers/gpu/drm/i915/i915_dma.c
++++ b/drivers/gpu/drm/i915/i915_dma.c
+@@ -1045,7 +1045,7 @@ static int i915_load_modeset_init(struct
+       intel_modeset_init(dev);
+-      drm_helper_initial_config(dev);
++      drm_helper_initial_config_async(dev);
+       return 0;
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-silence-acer-message.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-silence-acer-message.patch
new file mode 100644 (file)
index 0000000..ff76f09
--- /dev/null
@@ -0,0 +1,22 @@
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Fri, 23 Jan 2009
+
+Small fix changing error msg to info msg in acer wmi driver
+---
+---
+ drivers/platform/x86/acer-wmi.c |    2 +-
+ 1 file changed, 1 insertion(+), 1 deletion(-)
+
+Index: linux-2.6.29/drivers/platform/x86/acer-wmi.c
+===================================================================
+--- linux-2.6.29.orig/drivers/platform/x86/acer-wmi.c
++++ linux-2.6.29/drivers/platform/x86/acer-wmi.c
+@@ -1290,7 +1290,7 @@ static int __init acer_wmi_init(void)
+               AMW0_find_mailled();
+       if (!interface) {
+-              printk(ACER_ERR "No or unsupported WMI interface, unable to "
++              printk(ACER_INFO "No or unsupported WMI interface, unable to "
+                               "load\n");
+               return -ENODEV;
+       }
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-sreadahead.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-sreadahead.patch
new file mode 100644 (file)
index 0000000..7fb6a29
--- /dev/null
@@ -0,0 +1,66 @@
+From 4d690855d6bdc15b753ac3c21bf507ad94d46aac Mon Sep 17 00:00:00 2001
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Sun, 21 Sep 2008 11:58:27 -0700
+Subject: [PATCH] superreadahead patch
+
+---
+ fs/ext3/ioctl.c         |    3 +++
+ fs/ext3/super.c         |    1 +
+ include/linux/ext3_fs.h |    1 +
+ include/linux/fs.h      |    2 ++
+ 4 files changed, 7 insertions(+), 0 deletions(-)
+
+diff --git a/fs/ext3/ioctl.c b/fs/ext3/ioctl.c
+index 8897481..08f4854 100644
+--- a/fs/ext3/ioctl.c
++++ b/fs/ext3/ioctl.c
+@@ -276,6 +276,9 @@ group_add_out:
+               mnt_drop_write(filp->f_path.mnt);
+               return err;
+       }
++      case EXT3_IOC_INODE_JIFFIES: {
++              return inode->created_when;
++      }
+       default:
+diff --git a/fs/ext3/super.c b/fs/ext3/super.c
+index 524b349..e6e8514 100644
+--- a/fs/ext3/super.c
++++ b/fs/ext3/super.c
+@@ -466,6 +466,7 @@ static struct inode *ext3_alloc_inode(struct super_block *sb)
+               return NULL;
+       ei->i_block_alloc_info = NULL;
+       ei->vfs_inode.i_version = 1;
++      ei->vfs_inode.created_when = jiffies;
+       return &ei->vfs_inode;
+ }
+diff --git a/include/linux/ext3_fs.h b/include/linux/ext3_fs.h
+index 634a5e5..84d5394 100644
+--- a/include/linux/ext3_fs.h
++++ b/include/linux/ext3_fs.h
+@@ -250,6 +250,7 @@ struct ext3_new_group_data {
+ #endif
+ #define EXT3_IOC_GETRSVSZ             _IOR('f', 5, long)
+ #define EXT3_IOC_SETRSVSZ             _IOW('f', 6, long)
++#define EXT3_IOC_INODE_JIFFIES                _IOR('f', 19, long)
+ /*
+  * ioctl commands in 32 bit emulation
+diff --git a/include/linux/fs.h b/include/linux/fs.h
+index 0872372..078e3fd 100644
+--- a/include/linux/fs.h
++++ b/include/linux/fs.h
+@@ -781,6 +781,8 @@ struct inode {
+       struct posix_acl        *i_default_acl;
+ #endif
+       void                    *i_private; /* fs or device private pointer */
++      
++      unsigned long           created_when; /* jiffies of creation time */
+ };
+ /*
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-touchkit.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.29-touchkit.patch
new file mode 100644 (file)
index 0000000..5253404
--- /dev/null
@@ -0,0 +1,146 @@
+From 3281da09528ca94f1b1fd39cae388f5b5423aa46 Mon Sep 17 00:00:00 2001
+From: Alan Olsen <alanx.r.olsen@intel.com>
+Date: Tue, 21 Jul 2009 13:26:58 -0700
+Subject: [PATCH] linux-2.6.29-touchkit.patch
+
+Signed-off-by: Alan Olsen <alanx.r.olsen@intel.com>
+---
+ drivers/input/mouse/psmouse-base.c |    9 +++++++
+ drivers/input/mouse/psmouse.h      |    1 +
+ drivers/input/mouse/touchkit_ps2.c |   45 ++++++++++++++++++++++++++++++++++-
+ drivers/input/mouse/touchkit_ps2.h |    6 ++++
+ 4 files changed, 59 insertions(+), 2 deletions(-)
+
+diff --git a/drivers/input/mouse/psmouse-base.c b/drivers/input/mouse/psmouse-base.c
+index b407b35..4c6b184 100644
+--- a/drivers/input/mouse/psmouse-base.c
++++ b/drivers/input/mouse/psmouse-base.c
+@@ -678,6 +678,9 @@ static int psmouse_extensions(struct psmouse *psmouse,
+               if (touchkit_ps2_detect(psmouse, set_properties) == 0)
+                       return PSMOUSE_TOUCHKIT_PS2;
++
++              if (elftouch_ps2_detect(psmouse, set_properties) == 0)
++                      return PSMOUSE_ELFTOUCH_PS2;
+       }
+ /*
+@@ -788,6 +791,12 @@ static const struct psmouse_protocol psmouse_protocols[] = {
+               .alias          = "trackpoint",
+               .detect         = trackpoint_detect,
+       },
++      {
++              .type           = PSMOUSE_ELFTOUCH_PS2,
++              .name           = "elftouchPS2",
++              .alias          = "elftouch",
++              .detect         = elftouch_ps2_detect,
++      },
+ #endif
+ #ifdef CONFIG_MOUSE_PS2_TOUCHKIT
+       {
+diff --git a/drivers/input/mouse/psmouse.h b/drivers/input/mouse/psmouse.h
+index 54ed267..8d1ba79 100644
+--- a/drivers/input/mouse/psmouse.h
++++ b/drivers/input/mouse/psmouse.h
+@@ -89,6 +89,7 @@ enum psmouse_type {
+       PSMOUSE_TRACKPOINT,
+       PSMOUSE_TOUCHKIT_PS2,
+       PSMOUSE_CORTRON,
++      PSMOUSE_ELFTOUCH_PS2,
+       PSMOUSE_HGPK,
+       PSMOUSE_ELANTECH,
+       PSMOUSE_AUTO            /* This one should always be last */
+diff --git a/drivers/input/mouse/touchkit_ps2.c b/drivers/input/mouse/touchkit_ps2.c
+index 3fadb2a..e9c27f1 100644
+--- a/drivers/input/mouse/touchkit_ps2.c
++++ b/drivers/input/mouse/touchkit_ps2.c
+@@ -51,6 +51,11 @@
+ #define TOUCHKIT_GET_X(packet)                (((packet)[1] << 7) | (packet)[2])
+ #define TOUCHKIT_GET_Y(packet)                (((packet)[3] << 7) | (packet)[4])
++#define ELFTOUCH_MAX_XC                       0x0fff
++#define ELFTOUCH_MAX_YC                       0x0fff
++#define ELFTOUCH_GET_X(packet)                (((packet)[3] << 7) | (packet)[4])
++#define ELFTOUCH_GET_Y(packet)                (((packet)[1] << 7) | (packet)[2])
++
+ static psmouse_ret_t touchkit_ps2_process_byte(struct psmouse *psmouse)
+ {
+       unsigned char *packet = psmouse->packet;
+@@ -59,9 +64,15 @@ static psmouse_ret_t touchkit_ps2_process_byte(struct psmouse *psmouse)
+       if (psmouse->pktcnt != 5)
+               return PSMOUSE_GOOD_DATA;
+-      input_report_abs(dev, ABS_X, TOUCHKIT_GET_X(packet));
+-      input_report_abs(dev, ABS_Y, TOUCHKIT_GET_Y(packet));
++        if(psmouse->type==PSMOUSE_ELFTOUCH_PS2) {
++              input_report_abs(dev, ABS_X, ELFTOUCH_GET_X(packet));
++              input_report_abs(dev, ABS_Y, ELFTOUCH_GET_Y(packet)); 
++        } else {
++              input_report_abs(dev, ABS_X, TOUCHKIT_GET_X(packet));
++              input_report_abs(dev, ABS_Y, TOUCHKIT_GET_Y(packet));
++        }
+       input_report_key(dev, BTN_TOUCH, TOUCHKIT_GET_TOUCHED(packet));
++
+       input_sync(dev);
+       return PSMOUSE_FULL_PACKET;
+@@ -98,3 +109,33 @@ int touchkit_ps2_detect(struct psmouse *psmouse, int set_properties)
+       return 0;
+ }
++
++int elftouch_ps2_detect(struct psmouse *psmouse, int set_properties)
++{
++      struct input_dev *dev = psmouse->dev;
++      unsigned char param[16];
++      int command, res;
++
++      param[0]=0x0f4; 
++      command = TOUCHKIT_SEND_PARMS(1, 0, TOUCHKIT_CMD);
++      res=ps2_command(&psmouse->ps2dev, param, command);
++      if(res) { return -ENODEV; }
++
++      param[0]=0x0b0; 
++      command = TOUCHKIT_SEND_PARMS(1, 1, TOUCHKIT_CMD);
++      res=ps2_command(&psmouse->ps2dev, param, command);
++      if(res) { return -ENODEV; }
++
++      if (set_properties) {
++              dev->evbit[0] = BIT_MASK(EV_KEY) | BIT_MASK(EV_ABS);
++              set_bit(BTN_TOUCH, dev->keybit);
++              input_set_abs_params(dev, ABS_X, 0, ELFTOUCH_MAX_XC, 0, 0);
++              input_set_abs_params(dev, ABS_Y, 0, ELFTOUCH_MAX_YC, 0, 0);
++
++              psmouse->vendor = "ElfTouch";
++              psmouse->name = "Touchscreen";
++              psmouse->protocol_handler = touchkit_ps2_process_byte;
++              psmouse->pktsize = 5;
++      }
++      return 0;
++}
+diff --git a/drivers/input/mouse/touchkit_ps2.h b/drivers/input/mouse/touchkit_ps2.h
+index 8a0dd35..f32ef4c 100644
+--- a/drivers/input/mouse/touchkit_ps2.h
++++ b/drivers/input/mouse/touchkit_ps2.h
+@@ -14,12 +14,18 @@
+ #ifdef CONFIG_MOUSE_PS2_TOUCHKIT
+ int touchkit_ps2_detect(struct psmouse *psmouse, int set_properties);
++int elftouch_ps2_detect(struct psmouse *psmouse, int set_properties);
+ #else
+ static inline int touchkit_ps2_detect(struct psmouse *psmouse,
+                                     int set_properties)
+ {
+       return -ENOSYS;
+ }
++static inline int elftouch_ps2_detect(struct psmouse *psmouse,
++                                    int set_properties)
++{
++      return -ENOSYS;
++}
+ #endif /* CONFIG_MOUSE_PS2_TOUCHKIT */
+ #endif
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.30-non-root-X.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.30-non-root-X.patch
new file mode 100644 (file)
index 0000000..76dd360
--- /dev/null
@@ -0,0 +1,32 @@
+From a5a267593c15ac987f78cfc21cae0c8ef723f81e Mon Sep 17 00:00:00 2001
+From: Alan Olsen <alan.r.olsen@intel.com>
+Date: Mon, 21 Sep 2009 13:58:49 -0700
+Subject: [PATCH] linux-2.6.30-non-root-X.patch
+
+Signed-off-by: Alan Olsen <alan.r.olsen@intel.com>
+---
+ drivers/gpu/drm/drm_drv.c |    4 ++--
+ 1 files changed, 2 insertions(+), 2 deletions(-)
+
+diff --git a/drivers/gpu/drm/drm_drv.c b/drivers/gpu/drm/drm_drv.c
+index 4678f8f..b7f3a41 100644
+--- a/drivers/gpu/drm/drm_drv.c
++++ b/drivers/gpu/drm/drm_drv.c
+@@ -64,12 +64,12 @@ static struct drm_ioctl_desc drm_ioctls[] = {
+       DRM_IOCTL_DEF(DRM_IOCTL_GET_MAP, drm_getmap, 0),
+       DRM_IOCTL_DEF(DRM_IOCTL_GET_CLIENT, drm_getclient, 0),
+       DRM_IOCTL_DEF(DRM_IOCTL_GET_STATS, drm_getstats, 0),
+-      DRM_IOCTL_DEF(DRM_IOCTL_SET_VERSION, drm_setversion, DRM_MASTER|DRM_ROOT_ONLY),
++      DRM_IOCTL_DEF(DRM_IOCTL_SET_VERSION, drm_setversion, DRM_MASTER),
+       DRM_IOCTL_DEF(DRM_IOCTL_SET_UNIQUE, drm_setunique, DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
+       DRM_IOCTL_DEF(DRM_IOCTL_BLOCK, drm_noop, DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
+       DRM_IOCTL_DEF(DRM_IOCTL_UNBLOCK, drm_noop, DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
+-      DRM_IOCTL_DEF(DRM_IOCTL_AUTH_MAGIC, drm_authmagic, DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
++      DRM_IOCTL_DEF(DRM_IOCTL_AUTH_MAGIC, drm_authmagic, DRM_AUTH|DRM_MASTER),
+       DRM_IOCTL_DEF(DRM_IOCTL_ADD_MAP, drm_addmap_ioctl, DRM_AUTH|DRM_MASTER|DRM_ROOT_ONLY),
+       DRM_IOCTL_DEF(DRM_IOCTL_RM_MAP, drm_rmmap_ioctl, DRM_AUTH),
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-1-2-timberdale.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-1-2-timberdale.patch
new file mode 100644 (file)
index 0000000..9db5b4a
--- /dev/null
@@ -0,0 +1,12910 @@
+diff -uNr linux-2.6.31/drivers/gpio/Kconfig linux-2.6.31.new/drivers/gpio/Kconfig
+--- linux-2.6.31/drivers/gpio/Kconfig  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/gpio/Kconfig      2009-10-23 11:17:19.000000000 -0700
+@@ -173,6 +173,12 @@
+         If unsure, say N.
++config GPIO_TIMBERDALE
++      bool "Support for timberdale GPIO IP"
++      depends on MFD_TIMBERDALE && GPIOLIB && HAS_IOMEM
++      ---help---
++      Add support for the GPIO IP in the timberdale FPGA.
++
+ comment "SPI GPIO expanders:"
+ config GPIO_MAX7301
+@@ -188,4 +194,11 @@
+         SPI driver for Microchip MCP23S08 I/O expander.  This provides
+         a GPIO interface supporting inputs and outputs.
++config GPIO_MC33880
++      tristate "Freescale MC33880 high-side/low-side switch"
++      depends on SPI_MASTER
++      help
++        SPI driver for Freescale MC33880 high-side/low-side switch.
++        This provides GPIO interface supporting inputs and outputs.
++
+ endif
+diff -uNr linux-2.6.31/drivers/gpio/Makefile linux-2.6.31.new/drivers/gpio/Makefile
+--- linux-2.6.31/drivers/gpio/Makefile 2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/gpio/Makefile     2009-10-23 11:17:19.000000000 -0700
+@@ -14,3 +14,6 @@
+ obj-$(CONFIG_GPIO_XILINX)     += xilinx_gpio.o
+ obj-$(CONFIG_GPIO_BT8XX)      += bt8xxgpio.o
+ obj-$(CONFIG_GPIO_VR41XX)     += vr41xx_giu.o
++obj-$(CONFIG_GPIO_TIMBERDALE) += timbgpio.o
++obj-$(CONFIG_GPIO_MC33880)    += mc33880.o
++
+diff -uNr linux-2.6.31/drivers/gpio/mc33880.c linux-2.6.31.new/drivers/gpio/mc33880.c
+--- linux-2.6.31/drivers/gpio/mc33880.c        1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/gpio/mc33880.c    2009-10-23 11:17:19.000000000 -0700
+@@ -0,0 +1,196 @@
++/*
++ * mc33880.c MC33880 high-side/low-side switch GPIO driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Freescale MC33880 high-side/low-side switch
++ */
++
++#include <linux/init.h>
++#include <linux/mutex.h>
++#include <linux/spi/spi.h>
++#include <linux/spi/mc33880.h>
++#include <linux/gpio.h>
++
++#define DRIVER_NAME "mc33880"
++
++/*
++ * Pin configurations, see MAX7301 datasheet page 6
++ */
++#define PIN_CONFIG_MASK 0x03
++#define PIN_CONFIG_IN_PULLUP 0x03
++#define PIN_CONFIG_IN_WO_PULLUP 0x02
++#define PIN_CONFIG_OUT 0x01
++
++#define PIN_NUMBER 8
++
++
++/*
++ * Some registers must be read back to modify.
++ * To save time we cache them here in memory
++ */
++struct mc33880 {
++      struct mutex    lock;   /* protect from simultanous accesses */
++      u8              port_config;
++      struct gpio_chip chip;
++      struct spi_device *spi;
++};
++
++static int mc33880_write_config(struct mc33880 *mc)
++{
++      return spi_write(mc->spi, &mc->port_config, sizeof(mc->port_config));
++}
++
++
++static int __mc33880_set(struct mc33880 *mc, unsigned offset, int value)
++{
++      if (value)
++              mc->port_config |= 1 << offset;
++      else
++              mc->port_config &= ~(1 << offset);
++
++      return mc33880_write_config(mc);
++}
++
++
++static void mc33880_set(struct gpio_chip *chip, unsigned offset, int value)
++{
++      struct mc33880 *mc = container_of(chip, struct mc33880, chip);
++
++      mutex_lock(&mc->lock);
++
++      __mc33880_set(mc, offset, value);
++
++      mutex_unlock(&mc->lock);
++}
++
++static int __devinit mc33880_probe(struct spi_device *spi)
++{
++      struct mc33880 *mc;
++      struct mc33880_platform_data *pdata;
++      int ret;
++
++      pdata = spi->dev.platform_data;
++      if (!pdata || !pdata->base) {
++              dev_dbg(&spi->dev, "incorrect or missing platform data\n");
++              return -EINVAL;
++      }
++
++      /*
++       * bits_per_word cannot be configured in platform data
++       */
++      spi->bits_per_word = 8;
++
++      ret = spi_setup(spi);
++      if (ret < 0)
++              return ret;
++
++      mc = kzalloc(sizeof(struct mc33880), GFP_KERNEL);
++      if (!mc)
++              return -ENOMEM;
++
++      mutex_init(&mc->lock);
++
++      dev_set_drvdata(&spi->dev, mc);
++
++      mc->spi = spi;
++
++      mc->chip.label = DRIVER_NAME,
++      mc->chip.set = mc33880_set;
++      mc->chip.base = pdata->base;
++      mc->chip.ngpio = PIN_NUMBER;
++      mc->chip.can_sleep = 1;
++      mc->chip.dev = &spi->dev;
++      mc->chip.owner = THIS_MODULE;
++
++      mc->port_config = 0x00;
++      /* write twice, because during initialisation the first setting
++       * is just for testing SPI communication, and the second is the
++       * "real" configuration
++       */
++      ret = mc33880_write_config(mc);
++      mc->port_config = 0x00;
++      if (!ret)
++              ret = mc33880_write_config(mc);
++
++      if (ret) {
++              printk(KERN_ERR "Failed writing to " DRIVER_NAME ": %d\n", ret);
++              goto exit_destroy;
++      }
++
++      ret = gpiochip_add(&mc->chip);
++      if (ret)
++              goto exit_destroy;
++
++      return ret;
++
++exit_destroy:
++      dev_set_drvdata(&spi->dev, NULL);
++      mutex_destroy(&mc->lock);
++      kfree(mc);
++      return ret;
++}
++
++static int mc33880_remove(struct spi_device *spi)
++{
++      struct mc33880 *mc;
++      int ret;
++
++      mc = dev_get_drvdata(&spi->dev);
++      if (mc == NULL)
++              return -ENODEV;
++
++      dev_set_drvdata(&spi->dev, NULL);
++
++      ret = gpiochip_remove(&mc->chip);
++      if (!ret) {
++              mutex_destroy(&mc->lock);
++              kfree(mc);
++      } else
++              dev_err(&spi->dev, "Failed to remove the GPIO controller: %d\n",
++                      ret);
++
++      return ret;
++}
++
++static struct spi_driver mc33880_driver = {
++      .driver = {
++              .name           = DRIVER_NAME,
++              .owner          = THIS_MODULE,
++      },
++      .probe          = mc33880_probe,
++      .remove         = __devexit_p(mc33880_remove),
++};
++
++static int __init mc33880_init(void)
++{
++      return spi_register_driver(&mc33880_driver);
++}
++/* register after spi postcore initcall and before
++ * subsys initcalls that may rely on these GPIOs
++ */
++subsys_initcall(mc33880_init);
++
++static void __exit mc33880_exit(void)
++{
++      spi_unregister_driver(&mc33880_driver);
++}
++module_exit(mc33880_exit);
++
++MODULE_AUTHOR("Mocean Laboratories <info@mocean-labs.com>");
++MODULE_LICENSE("GPL v2");
++
+diff -uNr linux-2.6.31/drivers/gpio/timbgpio.c linux-2.6.31.new/drivers/gpio/timbgpio.c
+--- linux-2.6.31/drivers/gpio/timbgpio.c       1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/gpio/timbgpio.c   2009-10-23 11:17:19.000000000 -0700
+@@ -0,0 +1,342 @@
++/*
++ * timbgpio.c timberdale FPGA GPIO driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Timberdale FPGA GPIO
++ */
++
++#include <linux/module.h>
++#include <linux/gpio.h>
++#include <linux/platform_device.h>
++#include <linux/io.h>
++#include <linux/timb_gpio.h>
++#include <linux/interrupt.h>
++
++#define DRIVER_NAME "timb-gpio"
++
++#define TGPIOVAL      0x00
++#define TGPIODIR      0x04
++#define TGPIO_IER     0x08
++#define TGPIO_ISR     0x0c
++#define TGPIO_IPR     0x10
++#define TGPIO_ICR     0x14
++#define TGPIO_FLR     0x18
++#define TGPIO_LVR     0x1c
++
++struct timbgpio {
++      void __iomem            *membase;
++      spinlock_t              lock; /* mutual exclusion */
++      struct gpio_chip        gpio;
++      int                     irq_base;
++};
++
++static int timbgpio_update_bit(struct gpio_chip *gpio, unsigned index,
++      unsigned offset, bool enabled)
++{
++      struct timbgpio *tgpio = container_of(gpio, struct timbgpio, gpio);
++      u32 reg;
++
++      spin_lock(&tgpio->lock);
++      reg = ioread32(tgpio->membase + offset);
++
++      if (enabled)
++              reg |= (1 << index);
++      else
++              reg &= ~(1 << index);
++
++      iowrite32(reg, tgpio->membase + offset);
++      spin_unlock(&tgpio->lock);
++
++      return 0;
++}
++
++static int timbgpio_gpio_direction_input(struct gpio_chip *gpio, unsigned nr)
++{
++      return timbgpio_update_bit(gpio, nr, TGPIODIR, true);
++}
++
++static int timbgpio_gpio_get(struct gpio_chip *gpio, unsigned nr)
++{
++      struct timbgpio *tgpio = container_of(gpio, struct timbgpio, gpio);
++      u32 value;
++
++      value = ioread32(tgpio->membase + TGPIOVAL);
++      return (value & (1 << nr)) ? 1 : 0;
++}
++
++static int timbgpio_gpio_direction_output(struct gpio_chip *gpio,
++                                              unsigned nr, int val)
++{
++      return timbgpio_update_bit(gpio, nr, TGPIODIR, false);
++}
++
++static void timbgpio_gpio_set(struct gpio_chip *gpio,
++                              unsigned nr, int val)
++{
++      timbgpio_update_bit(gpio, nr, TGPIOVAL, val != 0);
++}
++
++static int timbgpio_to_irq(struct gpio_chip *gpio, unsigned offset)
++{
++      struct timbgpio *tgpio = container_of(gpio, struct timbgpio, gpio);
++
++      if (tgpio->irq_base <= 0)
++              return -EINVAL;
++
++      return tgpio->irq_base + offset;
++}
++
++/*
++ * GPIO IRQ
++ */
++static void timbgpio_irq_disable(unsigned irq)
++{
++      struct timbgpio *tgpio = get_irq_chip_data(irq);
++      int offset = irq - tgpio->irq_base;
++
++      timbgpio_update_bit(&tgpio->gpio, offset, TGPIO_IER, 0);
++}
++
++static void timbgpio_irq_enable(unsigned irq)
++{
++      struct timbgpio *tgpio = get_irq_chip_data(irq);
++      int offset = irq - tgpio->irq_base;
++
++      timbgpio_update_bit(&tgpio->gpio, offset, TGPIO_IER, 1);
++}
++
++static int timbgpio_irq_type(unsigned irq, unsigned trigger)
++{
++      struct timbgpio *tgpio = get_irq_chip_data(irq);
++      int offset = irq - tgpio->irq_base;
++      unsigned long flags;
++      u32 lvr, flr;
++
++      if (offset < 0 || offset > tgpio->gpio.ngpio)
++              return -EINVAL;
++
++      spin_lock_irqsave(&tgpio->lock, flags);
++
++      lvr = ioread32(tgpio->membase + TGPIO_LVR);
++      flr = ioread32(tgpio->membase + TGPIO_FLR);
++
++      if (trigger & (IRQ_TYPE_LEVEL_HIGH | IRQ_TYPE_LEVEL_LOW)) {
++              flr &= ~(1 << offset);
++              if (trigger & IRQ_TYPE_LEVEL_HIGH)
++                      lvr |= 1 << offset;
++              else
++                      lvr &= ~(1 << offset);
++      }
++
++      if ((trigger & IRQ_TYPE_EDGE_BOTH) == IRQ_TYPE_EDGE_BOTH)
++              return -EINVAL;
++      else {
++              flr |= 1 << offset;
++              /* opposite compared to the datasheet, but it mirrors the
++               * reality
++               */
++              if (trigger & IRQ_TYPE_EDGE_FALLING)
++                      lvr |= 1 << offset;
++              else
++                      lvr &= ~(1 << offset);
++      }
++
++      iowrite32(lvr, tgpio->membase + TGPIO_LVR);
++      iowrite32(flr, tgpio->membase + TGPIO_FLR);
++      iowrite32(1 << offset, tgpio->membase + TGPIO_ICR);
++      spin_unlock_irqrestore(&tgpio->lock, flags);
++
++      return 0;
++}
++
++static void timbgpio_irq(unsigned int irq, struct irq_desc *desc)
++{
++      struct timbgpio *tgpio = get_irq_data(irq);
++      unsigned long ipr;
++      int offset;
++
++      desc->chip->ack(irq);
++      ipr = ioread32(tgpio->membase + TGPIO_IPR);
++      iowrite32(ipr, tgpio->membase + TGPIO_ICR);
++
++      for_each_bit(offset, &ipr, tgpio->gpio.ngpio)
++              generic_handle_irq(timbgpio_to_irq(&tgpio->gpio, offset));
++}
++
++static struct irq_chip timbgpio_irqchip = {
++      .name           = "GPIO",
++      .enable         = timbgpio_irq_enable,
++      .disable        = timbgpio_irq_disable,
++      .set_type       = timbgpio_irq_type,
++};
++
++static int __devinit timbgpio_probe(struct platform_device *pdev)
++{
++      int err, i;
++      struct gpio_chip *gc;
++      struct timbgpio *tgpio;
++      struct resource *iomem;
++      struct timbgpio_platform_data *pdata = pdev->dev.platform_data;
++      int irq = platform_get_irq(pdev, 0);
++
++      if (!pdata || pdata->nr_pins > 32) {
++              err = -EINVAL;
++              goto err_mem;
++      }
++
++      iomem = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++      if (!iomem) {
++              err = -EINVAL;
++              goto err_mem;
++      }
++
++      tgpio = kzalloc(sizeof(*tgpio), GFP_KERNEL);
++      if (!tgpio) {
++              err = -EINVAL;
++              goto err_mem;
++      }
++      tgpio->irq_base = pdata->irq_base;
++
++      spin_lock_init(&tgpio->lock);
++
++      if (!request_mem_region(iomem->start, resource_size(iomem),
++              DRIVER_NAME)) {
++              err = -EBUSY;
++              goto err_request;
++      }
++
++      tgpio->membase = ioremap(iomem->start, resource_size(iomem));
++      if (!tgpio->membase) {
++              err = -ENOMEM;
++              goto err_ioremap;
++      }
++
++      gc = &tgpio->gpio;
++
++      gc->label = dev_name(&pdev->dev);
++      gc->owner = THIS_MODULE;
++      gc->dev = &pdev->dev;
++      gc->direction_input = timbgpio_gpio_direction_input;
++      gc->get = timbgpio_gpio_get;
++      gc->direction_output = timbgpio_gpio_direction_output;
++      gc->set = timbgpio_gpio_set;
++      gc->to_irq = (irq >= 0 && tgpio->irq_base > 0) ? timbgpio_to_irq : NULL;
++      gc->dbg_show = NULL;
++      gc->base = pdata->gpio_base;
++      gc->ngpio = pdata->nr_pins;
++      gc->can_sleep = 0;
++
++      err = gpiochip_add(gc);
++      if (err)
++              goto err_chipadd;
++
++      platform_set_drvdata(pdev, tgpio);
++
++      /* make sure to disable interrupts */
++      iowrite32(0x0, tgpio->membase + TGPIO_IER);
++
++      if (irq < 0 || tgpio->irq_base <= 0)
++              return 0;
++
++      for (i = 0; i < pdata->nr_pins; i++) {
++              set_irq_chip_and_handler_name(tgpio->irq_base + i,
++                      &timbgpio_irqchip, handle_simple_irq, "mux");
++              set_irq_chip_data(tgpio->irq_base + i, tgpio);
++#ifdef CONFIG_ARM
++              set_irq_flags(tgpio->irq_base + i, IRQF_VALID | IRQF_PROBE);
++#endif
++      }
++
++      set_irq_data(irq, tgpio);
++      set_irq_chained_handler(irq, timbgpio_irq);
++
++      return 0;
++
++err_chipadd:
++      iounmap(tgpio->membase);
++err_ioremap:
++      release_mem_region(iomem->start, resource_size(iomem));
++err_request:
++      kfree(tgpio);
++err_mem:
++      printk(KERN_ERR DRIVER_NAME": Failed to register GPIOs: %d\n", err);
++
++      return err;
++}
++
++static int __devexit timbgpio_remove(struct platform_device *pdev)
++{
++      int err;
++      struct timbgpio_platform_data *pdata = pdev->dev.platform_data;
++      struct timbgpio *tgpio = platform_get_drvdata(pdev);
++      struct resource *iomem = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++      int irq = platform_get_irq(pdev, 0);
++
++      if (irq >= 0 && tgpio->irq_base > 0) {
++              int i;
++              for (i = 0; i < pdata->nr_pins; i++) {
++                      set_irq_chip(tgpio->irq_base + i, NULL);
++                      set_irq_chip_data(tgpio->irq_base + i, NULL);
++              }
++
++              set_irq_handler(irq, NULL);
++              set_irq_data(irq, NULL);
++      }
++
++      err = gpiochip_remove(&tgpio->gpio);
++      if (err)
++              printk(KERN_ERR DRIVER_NAME": failed to remove gpio_chip\n");
++
++      iounmap(tgpio->membase);
++      release_mem_region(iomem->start, resource_size(iomem));
++      kfree(tgpio);
++
++      platform_set_drvdata(pdev, NULL);
++
++      return 0;
++}
++
++static struct platform_driver timbgpio_platform_driver = {
++      .driver = {
++              .name   = DRIVER_NAME,
++              .owner  = THIS_MODULE,
++      },
++      .probe          = timbgpio_probe,
++      .remove         = timbgpio_remove,
++};
++
++/*--------------------------------------------------------------------------*/
++
++static int __init timbgpio_init(void)
++{
++      return platform_driver_register(&timbgpio_platform_driver);
++}
++
++static void __exit timbgpio_exit(void)
++{
++      platform_driver_unregister(&timbgpio_platform_driver);
++}
++
++module_init(timbgpio_init);
++module_exit(timbgpio_exit);
++
++MODULE_DESCRIPTION("Timberdale GPIO driver");
++MODULE_LICENSE("GPL v2");
++MODULE_AUTHOR("Mocean Laboratories");
++MODULE_ALIAS("platform:"DRIVER_NAME);
++
+diff -uNr linux-2.6.31/drivers/i2c/busses/i2c-xiic.c linux-2.6.31.new/drivers/i2c/busses/i2c-xiic.c
+--- linux-2.6.31/drivers/i2c/busses/i2c-xiic.c 1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/i2c/busses/i2c-xiic.c     2009-10-23 11:17:29.000000000 -0700
+@@ -0,0 +1,1132 @@
++/*
++ * i2c-xiic.c
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Xilinx IIC
++ */
++#include <linux/kernel.h>
++#include <linux/module.h>
++#include <linux/init.h>
++#include <linux/errno.h>
++#include <linux/platform_device.h>
++#include <linux/i2c.h>
++#include <linux/interrupt.h>
++#include <linux/wait.h>
++#include <linux/i2c-xiic.h>
++#include <linux/io.h>
++
++#define DRIVER_NAME "xiic-i2c"
++
++struct xiic_i2c {
++      void __iomem *base;
++      wait_queue_head_t wait;
++      struct i2c_adapter adap;
++      struct i2c_msg *tx_msg;
++      spinlock_t      lock; /* mutual exclusion */
++      unsigned int tx_pos;
++      unsigned int nmsgs;
++      int state; /* see STATE_ */
++
++      struct i2c_msg *rx_msg; /* current RX message */
++      int             rx_pos;
++};
++
++static inline void xiic_setreg8(struct xiic_i2c *i2c, int reg, u8 value);
++
++static inline u8 xiic_getreg8(struct xiic_i2c *i2c, int reg);
++
++static inline void xiic_setreg16(struct xiic_i2c *i2c, int reg, u16 value);
++
++static inline void xiic_setreg32(struct xiic_i2c *i2c, int reg, int value);
++
++static inline int xiic_getreg32(struct xiic_i2c *i2c, int reg);
++
++static void xiic_start_xfer(struct xiic_i2c *i2c);
++static void __xiic_start_xfer(struct xiic_i2c *i2c);
++
++/************************** Constant Definitions ****************************/
++
++#define STATE_DONE   0x00
++#define STATE_ERROR  0x01
++#define STATE_START  0x02
++
++#define XIIC_MSB_OFFSET 0
++#define XIIC_REG_OFFSET (0x100+XIIC_MSB_OFFSET)
++
++/*
++ * Register offsets in bytes from RegisterBase. Three is added to the
++ * base offset to access LSB (IBM style) of the word
++ */
++#define XIIC_CR_REG_OFFSET   (0x00+XIIC_REG_OFFSET)   /* Control Register   */
++#define XIIC_SR_REG_OFFSET   (0x04+XIIC_REG_OFFSET)   /* Status Register    */
++#define XIIC_DTR_REG_OFFSET  (0x08+XIIC_REG_OFFSET)   /* Data Tx Register   */
++#define XIIC_DRR_REG_OFFSET  (0x0C+XIIC_REG_OFFSET)   /* Data Rx Register   */
++#define XIIC_ADR_REG_OFFSET  (0x10+XIIC_REG_OFFSET)   /* Address Register   */
++#define XIIC_TFO_REG_OFFSET  (0x14+XIIC_REG_OFFSET)   /* Tx FIFO Occupancy  */
++#define XIIC_RFO_REG_OFFSET  (0x18+XIIC_REG_OFFSET)   /* Rx FIFO Occupancy  */
++#define XIIC_TBA_REG_OFFSET  (0x1C+XIIC_REG_OFFSET)   /* 10 Bit Address reg */
++#define XIIC_RFD_REG_OFFSET  (0x20+XIIC_REG_OFFSET)   /* Rx FIFO Depth reg  */
++#define XIIC_GPO_REG_OFFSET  (0x24+XIIC_REG_OFFSET)   /* Output Register    */
++
++/* Control Register masks */
++#define XIIC_CR_ENABLE_DEVICE_MASK        0x01        /* Device enable = 1      */
++#define XIIC_CR_TX_FIFO_RESET_MASK        0x02        /* Transmit FIFO reset=1  */
++#define XIIC_CR_MSMS_MASK                 0x04        /* Master starts Txing=1  */
++#define XIIC_CR_DIR_IS_TX_MASK            0x08        /* Dir of tx. Txing=1     */
++#define XIIC_CR_NO_ACK_MASK               0x10        /* Tx Ack. NO ack = 1     */
++#define XIIC_CR_REPEATED_START_MASK       0x20        /* Repeated start = 1     */
++#define XIIC_CR_GENERAL_CALL_MASK         0x40        /* Gen Call enabled = 1   */
++
++/* Status Register masks */
++#define XIIC_SR_GEN_CALL_MASK             0x01        /* 1=a mstr issued a GC   */
++#define XIIC_SR_ADDR_AS_SLAVE_MASK        0x02        /* 1=when addr as slave   */
++#define XIIC_SR_BUS_BUSY_MASK             0x04        /* 1 = bus is busy        */
++#define XIIC_SR_MSTR_RDING_SLAVE_MASK     0x08        /* 1=Dir: mstr <-- slave  */
++#define XIIC_SR_TX_FIFO_FULL_MASK         0x10        /* 1 = Tx FIFO full       */
++#define XIIC_SR_RX_FIFO_FULL_MASK         0x20        /* 1 = Rx FIFO full       */
++#define XIIC_SR_RX_FIFO_EMPTY_MASK        0x40        /* 1 = Rx FIFO empty      */
++#define XIIC_SR_TX_FIFO_EMPTY_MASK        0x80        /* 1 = Tx FIFO empty      */
++
++/* Interrupt Status Register masks    Interrupt occurs when...       */
++#define XIIC_INTR_ARB_LOST_MASK           0x01        /* 1 = arbitration lost   */
++#define XIIC_INTR_TX_ERROR_MASK           0x02        /* 1=Tx error/msg complete */
++#define XIIC_INTR_TX_EMPTY_MASK           0x04        /* 1 = Tx FIFO/reg empty  */
++#define XIIC_INTR_RX_FULL_MASK            0x08        /* 1=Rx FIFO/reg=OCY level */
++#define XIIC_INTR_BNB_MASK                0x10        /* 1 = Bus not busy       */
++#define XIIC_INTR_AAS_MASK                0x20        /* 1 = when addr as slave */
++#define XIIC_INTR_NAAS_MASK               0x40        /* 1 = not addr as slave  */
++#define XIIC_INTR_TX_HALF_MASK            0x80        /* 1 = TX FIFO half empty */
++
++/* The following constants specify the depth of the FIFOs */
++#define IIC_RX_FIFO_DEPTH         16  /* Rx fifo capacity               */
++#define IIC_TX_FIFO_DEPTH         16  /* Tx fifo capacity               */
++
++/* The following constants specify groups of interrupts that are typically
++ * enabled or disables at the same time
++ */
++#define XIIC_TX_INTERRUPTS                           \
++(XIIC_INTR_TX_ERROR_MASK | XIIC_INTR_TX_EMPTY_MASK | XIIC_INTR_TX_HALF_MASK)
++
++#define XIIC_TX_RX_INTERRUPTS (XIIC_INTR_RX_FULL_MASK | XIIC_TX_INTERRUPTS)
++
++/* The following constants are used with the following macros to specify the
++ * operation, a read or write operation.
++ */
++#define XIIC_READ_OPERATION  1
++#define XIIC_WRITE_OPERATION 0
++
++/*
++ * Tx Fifo upper bit masks.
++ */
++#define XIIC_TX_DYN_START_MASK            0x0100 /* 1 = Set dynamic start */
++#define XIIC_TX_DYN_STOP_MASK             0x0200 /* 1 = Set dynamic stop */
++
++/*
++ * The following constants define the register offsets for the Interrupt
++ * registers. There are some holes in the memory map for reserved addresses
++ * to allow other registers to be added and still match the memory map of the
++ * interrupt controller registers
++ */
++#define XIIC_DGIER_OFFSET    0x1C /* Device Global Interrupt Enable Register */
++#define XIIC_IISR_OFFSET     0x20 /* Interrupt Status Register */
++#define XIIC_IIER_OFFSET     0x28 /* Interrupt Enable Register */
++#define XIIC_RESETR_OFFSET   0x40 /* Reset Register */
++
++#define XIIC_RESET_MASK             0xAUL
++
++/*
++ * The following constant is used for the device global interrupt enable
++ * register, to enable all interrupts for the device, this is the only bit
++ * in the register
++ */
++#define XIIC_GINTR_ENABLE_MASK      0x80000000UL
++
++/***************** Macros (Inline Functions) Definitions *********************/
++
++
++/******************************************************************************
++*
++* This macro disables all interrupts for the device by writing to the Global
++* interrupt enable register.  This register provides the ability to disable
++* interrupts without any modifications to the interrupt enable register such
++* that it is minimal effort to restore the interrupts to the previous enabled
++* state.  The corresponding function, XIIC_GINTR_ENABLE, is provided to
++* restore the interrupts to the previous enabled state.  This function is
++* designed to be used in critical sections of device drivers such that it is
++* not necessary to disable other device interrupts.
++*
++* @param      Instance local i2c instance
++*
++* @return     None.
++*
++* @note               C-Style signature:
++*             void XIIC_GINTR_DISABLE(i2c);
++*
++******************************************************************************/
++#define XIIC_GINTR_DISABLE(Instance)                  \
++      xiic_setreg32(Instance, XIIC_DGIER_OFFSET, 0)
++
++/******************************************************************************
++*
++* This macro writes to the global interrupt enable register to enable
++* interrupts from the device.  This register provides the ability to enable
++* interrupts without any modifications to the interrupt enable register such
++* that it is minimal effort to restore the interrupts to the previous enabled
++* state. This function does not enable individual interrupts as the interrupt
++* enable register must be set appropriately.  This function is designed to be
++* used in critical sections of device drivers such that it is not necessary to
++* disable other device interrupts.
++*
++* @param      Instance local I2C instance
++*
++* @return     None.
++*
++* @note               C-Style signature:
++*             void XIIC_GINTR_ENABLE(i2c);
++*
++******************************************************************************/
++#define XIIC_GINTR_ENABLE(Instance)                   \
++      xiic_setreg32(Instance, XIIC_DGIER_OFFSET, XIIC_GINTR_ENABLE_MASK)
++
++/******************************************************************************
++*
++*
++* This function sets the Interrupt status register to the specified value.
++* This register indicates the status of interrupt sources for the device.
++* The status is independent of whether interrupts are enabled such that
++* the status register may also be polled when interrupts are not enabled.
++*
++* Each bit of the register correlates to a specific interrupt source within the
++* IIC device.  All bits of this register are latched. Setting a bit which is 0
++* within this register causes an interrupt to be generated.  The device global
++* interrupt enable register and the device interrupt enable register must be set
++* appropriately to allow an interrupt to be passed out of the device. The
++* interrupt is cleared by writing to this register with the bits to be
++* cleared set to a one and all others to zero.  This register implements a
++* toggle on write functionality meaning any bits which are set in the value
++* written cause the bits in the register to change to the opposite state.
++*
++* This function writes only the specified value to the register such that
++* some status bits may be set and others cleared.  It is the caller's
++* responsibility to get the value of the register prior to setting the value
++* to prevent an destructive behavior.
++*
++* @param      Instance local I2C instance
++* @param      Status contains the value to be written to the Interrupt
++*             status register.
++*
++* @return     None.
++*
++* @note               C-Style signature:
++*             void XIIC_WRITE_IISR(i2c, u32 Status);
++*
++******************************************************************************/
++#define XIIC_WRITE_IISR(Instance, Status)             \
++      xiic_setreg32(Instance, XIIC_IISR_OFFSET, (Status))
++
++/******************************************************************************
++*
++*
++* This function gets the contents of the Interrupt Status Register.
++* This register indicates the status of interrupt sources for the device.
++* The status is independent of whether interrupts are enabled such
++* that the status register may also be polled when interrupts are not enabled.
++*
++* Each bit of the register correlates to a specific interrupt source within the
++* device.  All bits of this register are latched.  Writing a 1 to a bit within
++* this register causes an interrupt to be generated if enabled in the interrupt
++* enable register and the global interrupt enable is set.  Since the status is
++* latched, each status bit must be acknowledged in order for the bit in the
++* status register to be updated.  Each bit can be acknowledged by writing a
++* 0 to the bit in the status register.
++
++* @param      Instance local I2C instance
++*
++* @return     A status which contains the value read from the Interrupt
++*             Status Register.
++*
++* @note               C-Style signature:
++*             u32 XIIC_READ_IISR(i2c);
++*
++******************************************************************************/
++#define XIIC_READ_IISR(Instance)                      \
++      xiic_getreg32(Instance, XIIC_IISR_OFFSET)
++
++/******************************************************************************
++*
++* This function sets the contents of the Interrupt Enable Register . This
++* register controls which interrupt sources of the IIC device are allowed to
++* generate an interrupt. The global interrupt enable register and the device
++* interrupt enable register must also be set appropriately for an interrupt
++* to be passed out of the device.
++*
++* Each bit of the register correlates to a specific interrupt source within the
++* device. Setting a bit in this register enables the interrupt source to gen
++* an interrupt.  Clearing a bit in this register disables interrupt generation
++* for that interrupt source.
++*
++* This function writes only the specified value to the register such that
++* some interrupt sources may be enabled and others disabled.  It is the
++* caller's responsibility to get the value of the interrupt enable register
++* prior to setting the value to prevent a destructive behavior.
++*
++* @param      Instance local I2C instance
++* @param      Enable contains the value to be written to the Interrupt Enable
++*             Register.
++*
++* @return     None
++*
++* @note               C-Style signature:
++*             void XIIC_WRITE_IIER(i2c, u32 Enable);
++*
++******************************************************************************/
++#define XIIC_WRITE_IIER(Instance, Enable)             \
++      xiic_setreg32(Instance, XIIC_IIER_OFFSET, (Enable))
++
++/******************************************************************************
++*
++*
++* This function gets the Interrupt enable register contents.  This register
++* controls which interrupt sources of the device are allowed to generate an
++* interrupt.  The global interrupt enable register and the device interrupt
++* enable register must also be set appropriately for an interrupt to be
++* passed out of the IIC device.
++*
++* Each bit of the register correlates to a specific interrupt source within the
++* IIC device. Setting a bit in this register enables the interrupt source to
++* generate an interrupt.  Clearing a bit in this register disables interrupt
++* generation for that interrupt source.
++*
++* @param      Instance local I2C instance
++*
++* @return     The contents read from the Interrupt Enable Register.
++*
++* @note               C-Style signature:
++*             u32 XIIC_READ_IIER(i2c)
++*
++******************************************************************************/
++#define XIIC_READ_IIER(Instance)                      \
++      xiic_getreg32(Instance, XIIC_IIER_OFFSET)
++
++/************************** Function Prototypes ******************************/
++
++/******************************************************************************
++*
++* This macro disables the specified interrupts in the Interrupt enable
++* register.  It is non-destructive in that the register is read and only the
++* interrupts specified is changed.
++*
++* @param      BaseAddress is the base address of the IIC device.
++* @param      InterruptMask contains the interrupts to be disabled
++*
++* @return     None.
++*
++* @note               Signature:
++*             void XIic_mDisableIntr(u32 BaseAddress, u32 InterruptMask);
++*
++******************************************************************************/
++#define XIic_mDisableIntr(Instance, InterruptMask)            \
++      XIIC_WRITE_IIER((Instance), XIIC_READ_IIER(Instance) & ~(InterruptMask))
++
++/******************************************************************************
++*
++* This macro enables the specified interrupts in the Interrupt enable
++* register.  It is non-destructive in that the register is read and only the
++* interrupts specified is changed.
++*
++* @param      BaseAddress is the base address of the IIC device.
++* @param      InterruptMask contains the interrupts to be disabled
++*
++* @return     None.
++*
++* @note               Signature:
++*             void XIic_mEnableIntr(u32 BaseAddress, u32 InterruptMask);
++*
++******************************************************************************/
++#define XIic_mEnableIntr(Instance, InterruptMask)           \
++      XIIC_WRITE_IIER((Instance), XIIC_READ_IIER(Instance) | (InterruptMask))
++
++/******************************************************************************
++*
++* This macro clears the specified interrupt in the Interrupt status
++* register.  It is non-destructive in that the register is read and only the
++* interrupt specified is cleared.  Clearing an interrupt acknowledges it.
++*
++* @param      BaseAddress is the base address of the IIC device.
++* @param      InterruptMask contains the interrupts to be disabled
++*
++* @return     None.
++*
++* @note               Signature:
++*             void XIic_mClearIntr(u32 BaseAddress, u32 InterruptMask);
++*
++******************************************************************************/
++#define XIic_mClearIntr(Instance, InterruptMask)         \
++      XIIC_WRITE_IISR((Instance), XIIC_READ_IISR(Instance) & (InterruptMask))
++
++/******************************************************************************
++*
++* This macro clears and enables the specified interrupt in the Interrupt
++* status and enable registers.  It is non-destructive in that the registers are
++* read and only the interrupt specified is modified.
++* Clearing an interrupt acknowledges it.
++*
++* @param      BaseAddress is the base address of the IIC device.
++* @param      InterruptMask contains the interrupts to be cleared and enabled
++*
++* @return     None.
++*
++* @note               Signature:
++*             void XIic_mClearEnableIntr(u32 BaseAddress, u32 InterruptMask);
++*
++******************************************************************************/
++#define XIic_mClearEnableIntr(Instance, InterruptMask) {      \
++      XIIC_WRITE_IISR(Instance,                               \
++              (XIIC_READ_IISR(Instance) & (InterruptMask)));  \
++      XIIC_WRITE_IIER(Instance,                               \
++                  (XIIC_READ_IIER(Instance) | (InterruptMask))); \
++}
++
++
++#define xiic_tx_space(i2c) ((i2c)->tx_msg->len - (i2c)->tx_pos)
++#define xiic_rx_space(i2c) ((i2c)->rx_msg->len - (i2c)->rx_pos)
++
++static void xiic_clear_rx_fifo(struct xiic_i2c *i2c)
++{
++      u8 sr;
++      for (sr = xiic_getreg8(i2c, XIIC_SR_REG_OFFSET);
++              !(sr & XIIC_SR_RX_FIFO_EMPTY_MASK);
++              sr = xiic_getreg8(i2c, XIIC_SR_REG_OFFSET))
++              xiic_getreg8(i2c, XIIC_DRR_REG_OFFSET);
++}
++
++/******************************************************************************
++ *
++ * Initialize the IIC core for Dynamic Functionality.
++ *
++ * @param    i2c local I2C instance
++ *
++ * @return   None.
++ *
++ * @note     None.
++ *
++ ******************************************************************************/
++static void xiic_reinit(struct xiic_i2c *i2c)
++{
++      xiic_setreg32(i2c, XIIC_RESETR_OFFSET, XIIC_RESET_MASK);
++
++      /* Set receive Fifo depth to maximum (zero based). */
++      xiic_setreg8(i2c, XIIC_RFD_REG_OFFSET, IIC_RX_FIFO_DEPTH - 1);
++
++      /* Reset Tx Fifo. */
++      xiic_setreg8(i2c, XIIC_CR_REG_OFFSET, XIIC_CR_TX_FIFO_RESET_MASK);
++
++      /* Enable IIC Device, remove Tx Fifo reset & disable general call. */
++      xiic_setreg8(i2c, XIIC_CR_REG_OFFSET, XIIC_CR_ENABLE_DEVICE_MASK);
++
++      /* make sure RX fifo is empty */
++      xiic_clear_rx_fifo(i2c);
++
++      /* Enable interrupts */
++      xiic_setreg32(i2c, XIIC_DGIER_OFFSET, XIIC_GINTR_ENABLE_MASK);
++
++      XIic_mClearEnableIntr(i2c, XIIC_INTR_AAS_MASK |
++              XIIC_INTR_ARB_LOST_MASK);
++}
++
++/******************************************************************************
++ *
++ * De-Initialize the IIC core.
++ *
++ * @param    i2c local I2C instance
++ *
++ * @return   None.
++ *
++ * @note     None.
++ *
++ ******************************************************************************/
++static void xiic_deinit(struct xiic_i2c *i2c)
++{
++      u8 cr;
++
++      xiic_setreg32(i2c, XIIC_RESETR_OFFSET, XIIC_RESET_MASK);
++
++      /* Disable IIC Device. */
++      cr = xiic_getreg8(i2c, XIIC_CR_REG_OFFSET);
++      xiic_setreg8(i2c, XIIC_CR_REG_OFFSET, cr & ~XIIC_CR_ENABLE_DEVICE_MASK);
++}
++
++
++
++/*****************************************************************************
++ *
++ *
++ * This function is called when the receive register is full. The number
++ * of bytes received to cause the interrupt is adjustable using the Receive FIFO
++ * Depth register. The number of bytes in the register is read in the Receive
++ * FIFO occupancy register. Both these registers are zero based values (0-15)
++ * such that a value of zero indicates 1 byte.
++ *
++ * For a Master Receiver to properly signal the end of a message, the data must
++ * be read in up to the message length - 1, where control register bits will be
++ * set for bus controls to occur on reading of the last byte.
++ *
++ * @param    InstancePtr is a pointer to the XIic instance to be worked on.
++ *
++ * @return    None.
++ *
++ * @note              None.
++ *
++ ******************************************************************************/
++static void xiic_read_rx(struct xiic_i2c *i2c)
++{
++      u8 bytes_in_fifo;
++      int i;
++
++      bytes_in_fifo = xiic_getreg8(i2c, XIIC_RFO_REG_OFFSET) + 1;
++
++      dev_dbg(i2c->adap.dev.parent, "%s entry, bytes in fifo: %d, msg: %d"
++              ", SR: 0x%x, CR: 0x%x\n",
++              __func__, bytes_in_fifo, xiic_rx_space(i2c),
++              xiic_getreg8(i2c, XIIC_SR_REG_OFFSET),
++              xiic_getreg8(i2c, XIIC_CR_REG_OFFSET));
++
++      if (bytes_in_fifo > xiic_rx_space(i2c))
++              bytes_in_fifo = xiic_rx_space(i2c);
++
++      for (i = 0; i < bytes_in_fifo; i++)
++              i2c->rx_msg->buf[i2c->rx_pos++] =
++                      xiic_getreg8(i2c, XIIC_DRR_REG_OFFSET);
++
++      xiic_setreg8(i2c, XIIC_RFD_REG_OFFSET,
++              (xiic_rx_space(i2c) > IIC_RX_FIFO_DEPTH) ?
++              IIC_RX_FIFO_DEPTH - 1 :  xiic_rx_space(i2c) - 1);
++}
++
++/******************************************************************************
++ *
++ * This function fills the FIFO using the occupancy register to determine the
++ * available space to be filled. When the repeated start option is on, the last
++ * byte is withheld to allow the control register to be properly set on the last
++ * byte.
++ *
++ * @param    InstancePtr is a pointer to the XIic instance to be worked on.
++ *
++ * @param    Role indicates the role of this IIC device, a slave or a master, on
++ *           the IIC bus (XIIC_SLAVE_ROLE or XIIC_MASTER_ROLE)
++ *
++ * @return
++ *
++ * None.
++ *
++ * @note
++ *
++ * None.
++ *
++ ******************************************************************************/
++static int xiic_tx_fifo_space(struct xiic_i2c *i2c)
++{
++      return IIC_TX_FIFO_DEPTH - xiic_getreg8(i2c, XIIC_TFO_REG_OFFSET) - 1;
++}
++
++static void xiic_fill_tx_fifo(struct xiic_i2c *i2c)
++{
++      u8 fifo_space = xiic_tx_fifo_space(i2c);
++      int len = xiic_tx_space(i2c);
++
++      len = (len > fifo_space) ? fifo_space : len;
++
++      dev_dbg(i2c->adap.dev.parent, "%s entry, len: %d, fifo space: %d\n",
++              __func__, len, fifo_space);
++
++      while (len--) {
++              u16 data = i2c->tx_msg->buf[i2c->tx_pos++];
++              if ((xiic_tx_space(i2c) == 0) && (i2c->nmsgs == 1)) {
++                      /* last message in transfer -> STOP */
++                      data |= XIIC_TX_DYN_STOP_MASK;
++                      dev_dbg(i2c->adap.dev.parent, "%s TX STOP\n", __func__);
++
++                      xiic_setreg16(i2c, XIIC_DTR_REG_OFFSET, data);
++              } else
++                      xiic_setreg8(i2c, XIIC_DTR_REG_OFFSET, data);
++      }
++}
++
++static void xiic_wakeup(struct xiic_i2c *i2c, int code)
++{
++      i2c->tx_msg = NULL;
++      i2c->rx_msg = NULL;
++      i2c->nmsgs = 0;
++      i2c->state = code;
++      wake_up(&i2c->wait);
++}
++
++static void xiic_process(struct xiic_i2c *i2c)
++{
++      u32 pend, isr, ier;
++      u32 Clear = 0;
++
++      /* Get the interrupt Status from the IPIF. There is no clearing of
++       * interrupts in the IPIF. Interrupts must be cleared at the source.
++       * To find which interrupts are pending; AND interrupts pending with
++       * interrupts masked.
++       */
++      isr = XIIC_READ_IISR(i2c);
++      ier = XIIC_READ_IIER(i2c);
++      pend = isr & ier;
++
++      dev_dbg(i2c->adap.dev.parent, "%s entry, IER: 0x%x, ISR: 0x%x, "
++              "pend: 0x%x, SR: 0x%x, msg: %p, nmsgs: %d\n",
++              __func__, ier, isr, pend, xiic_getreg8(i2c, XIIC_SR_REG_OFFSET),
++              i2c->tx_msg, i2c->nmsgs);
++
++      /* Do not processes a devices interrupts if the device has no
++       * interrupts pending
++       */
++      if (!pend)
++              return;
++
++      /* Service requesting interrupt */
++      if ((pend & XIIC_INTR_ARB_LOST_MASK) ||
++              ((pend & XIIC_INTR_TX_ERROR_MASK) &&
++              !(pend & XIIC_INTR_RX_FULL_MASK))) {
++              /* bus arbritration lost, or...
++               * Transmit error _OR_ RX completed
++               * if this happens when RX_FULL is not set
++               * this is probably a TX error
++               */
++
++              dev_dbg(i2c->adap.dev.parent,
++                      "%s error\n", __func__);
++
++              /* dynamic mode seem to suffer from problems if we just flushes
++               * fifos and the next message is a TX with len 0 (only addr)
++               * reset the IP instead of just flush fifos
++               */
++              xiic_reinit(i2c);
++
++              if (i2c->tx_msg)
++                      xiic_wakeup(i2c, STATE_ERROR);
++
++      } else if (pend & XIIC_INTR_RX_FULL_MASK) {
++              /* Receive register/FIFO is full */
++
++              Clear = XIIC_INTR_RX_FULL_MASK;
++              if (!i2c->rx_msg) {
++                      dev_dbg(i2c->adap.dev.parent,
++                              "%s unexpexted RX IRQ\n", __func__);
++                      xiic_clear_rx_fifo(i2c);
++                      goto out;
++              }
++
++              xiic_read_rx(i2c);
++              if (xiic_rx_space(i2c) == 0) {
++                      /* this is the last part of the message */
++                      i2c->rx_msg = NULL;
++
++                      /* also clear TX error if there (RX complete) */
++                      Clear |= (isr & XIIC_INTR_TX_ERROR_MASK);
++
++                      dev_dbg(i2c->adap.dev.parent,
++                              "%s end of message, nmsgs: %d\n",
++                              __func__, i2c->nmsgs);
++
++                      /* send next message if this wasn't the last,
++                       * otherwise the transfer will be finialise when
++                       * receiving the bus not busy interrupt
++                       */
++                      if (i2c->nmsgs > 1) {
++                              i2c->nmsgs--;
++                              i2c->tx_msg++;
++                              dev_dbg(i2c->adap.dev.parent,
++                                      "%s will start next...\n", __func__);
++
++                              __xiic_start_xfer(i2c);
++                      }
++              }
++      } else if (pend & XIIC_INTR_BNB_MASK) {
++              /* IIC bus has transitioned to not busy */
++              Clear = XIIC_INTR_BNB_MASK;
++
++              /* The bus is not busy, disable BusNotBusy interrupt */
++              XIic_mDisableIntr(i2c, XIIC_INTR_BNB_MASK);
++
++              if (!i2c->tx_msg)
++                      goto out;
++
++              if ((i2c->nmsgs == 1) && !i2c->rx_msg &&
++                      xiic_tx_space(i2c) == 0)
++                      xiic_wakeup(i2c, STATE_DONE);
++              else
++                      xiic_wakeup(i2c, STATE_ERROR);
++
++      } else if (pend & (XIIC_INTR_TX_EMPTY_MASK | XIIC_INTR_TX_HALF_MASK)) {
++              /* Transmit register/FIFO is empty or Â½ empty */
++
++              Clear = pend &
++                      (XIIC_INTR_TX_EMPTY_MASK | XIIC_INTR_TX_HALF_MASK);
++
++              if (!i2c->tx_msg) {
++                      dev_dbg(i2c->adap.dev.parent,
++                              "%s unexpexted TX IRQ\n", __func__);
++                      goto out;
++              }
++
++              xiic_fill_tx_fifo(i2c);
++
++              /* current message sent and there is space in the fifo */
++              if (!xiic_tx_space(i2c) && xiic_tx_fifo_space(i2c) >= 2) {
++                      dev_dbg(i2c->adap.dev.parent,
++                              "%s end of message sent, nmsgs: %d\n",
++                              __func__, i2c->nmsgs);
++                      if (i2c->nmsgs > 1) {
++                              i2c->nmsgs--;
++                              i2c->tx_msg++;
++                              __xiic_start_xfer(i2c);
++                      } else {
++                              XIic_mDisableIntr(i2c, XIIC_INTR_TX_HALF_MASK);
++
++                              dev_err(i2c->adap.dev.parent,
++                                      "%s Got TX IRQ but no more to do...\n",
++                                      __func__);
++                      }
++              } else if (!xiic_tx_space(i2c) && (i2c->nmsgs == 1))
++                      /* current frame is sent and is last,
++                       * make sure to disable tx half
++                       */
++                      XIic_mDisableIntr(i2c, XIIC_INTR_TX_HALF_MASK);
++      } else {
++              /* got IRQ which is not acked */
++              dev_err(i2c->adap.dev.parent, "%s Got unexpected IRQ\n",
++                      __func__);
++              Clear = pend;
++      }
++out:
++      dev_dbg(i2c->adap.dev.parent, "%s Clear: 0x%x\n", __func__, Clear);
++
++      XIIC_WRITE_IISR(i2c, Clear);
++}
++
++/******************************************************************************
++ *
++ * This function checks to see if the IIC bus is busy. If so, it will enable
++ * the bus not busy interrupt such that the driver is notified when the bus
++ * is no longer busy.
++ *
++ * @param    InstancePtr points to the Iic instance to be worked on.
++ *
++ * @return    FALSE if the IIC bus is not busy else TRUE.
++ *
++ * @note      The BusNotBusy interrupt is enabled which will update the
++ *            EventStatus when the bus is no longer busy.
++ *
++ ******************************************************************************/
++static int xiic_bus_busy(struct xiic_i2c *i2c)
++{
++      u8 sr = xiic_getreg8(i2c, XIIC_SR_REG_OFFSET);
++
++      return (sr & XIIC_SR_BUS_BUSY_MASK) ? -EBUSY : 0;
++}
++
++static int xiic_busy(struct xiic_i2c *i2c)
++{
++      int tries = 3;
++      int err;
++      if (i2c->tx_msg)
++              return -EBUSY;
++
++      /* for instance if previous transfer was terminated due to TX error
++       * it might be that the bus is on it's way to become available
++       * give it at most 3 ms to wake
++       */
++      err = xiic_bus_busy(i2c);
++      while (err && tries--) {
++              mdelay(1);
++              err = xiic_bus_busy(i2c);
++      }
++
++      return err;
++}
++
++static void xiic_dump_regs(struct xiic_i2c *i2c, const char *caller)
++{
++      dev_dbg(i2c->adap.dev.parent, "%s msg: %p, nmsgs: %d, "
++              "ISR: 0x%x, CR: 0x%x, SR: 0x%x\n",
++              caller, i2c->tx_msg, i2c->nmsgs, XIIC_READ_IISR(i2c),
++              xiic_getreg8(i2c, XIIC_CR_REG_OFFSET),
++              xiic_getreg8(i2c, XIIC_SR_REG_OFFSET));
++}
++
++static void xiic_start_recv(struct xiic_i2c *i2c)
++{
++      u8 rx_watermark;
++      struct i2c_msg *msg = i2c->rx_msg = i2c->tx_msg;
++
++      xiic_dump_regs(i2c, __func__);
++
++      /* Clear and enable Rx full interrupt. */
++      XIic_mClearEnableIntr(i2c, XIIC_INTR_RX_FULL_MASK |
++              XIIC_INTR_TX_ERROR_MASK);
++
++      /* we want to get all but last byte, because the TX_ERROR IRQ is used
++       * to inidicate error ACK on the address, and negative ack on the last
++       * received byte, so to not mix them receive all but last.
++       * In the case where there is only one byte to receive
++       * we can check if ERROR and RX full is set at the same time
++       */
++      rx_watermark = msg->len;
++      if (rx_watermark > IIC_RX_FIFO_DEPTH)
++              rx_watermark = IIC_RX_FIFO_DEPTH;
++      xiic_setreg8(i2c, XIIC_RFD_REG_OFFSET, rx_watermark - 1);
++
++      if (!(msg->flags & I2C_M_NOSTART))
++              /* write the address */
++              xiic_setreg16(i2c, XIIC_DTR_REG_OFFSET,
++                      (msg->addr << 1) | XIIC_READ_OPERATION |
++                      XIIC_TX_DYN_START_MASK);
++
++      XIic_mClearEnableIntr(i2c,
++              XIIC_INTR_BNB_MASK);
++
++      xiic_dump_regs(i2c, "after address");
++
++      xiic_setreg16(i2c, XIIC_DTR_REG_OFFSET,
++              msg->len | ((i2c->nmsgs == 1) ? XIIC_TX_DYN_STOP_MASK : 0));
++      if (i2c->nmsgs == 1) {
++              /* very last, enable bus busy as well */
++              XIic_mClearEnableIntr(i2c, XIIC_INTR_BNB_MASK);
++      }
++
++      xiic_dump_regs(i2c, "xiic_start_recv exit");
++
++      /* the message is tx:ed */
++      i2c->tx_pos = msg->len;
++}
++
++static void xiic_start_send(struct xiic_i2c *i2c)
++{
++      struct i2c_msg *msg = i2c->tx_msg;
++
++      XIic_mClearIntr(i2c, XIIC_INTR_TX_ERROR_MASK);
++
++      dev_dbg(i2c->adap.dev.parent, "%s entry, msg: %p, len: %d, "
++              "ISR: 0x%x, CR: 0x%x\n",
++              __func__, msg, msg->len, XIIC_READ_IISR(i2c),
++              xiic_getreg8(i2c, XIIC_CR_REG_OFFSET));
++
++      if (!(msg->flags & I2C_M_NOSTART)) {
++              /* write the address */
++              u16 data = ((msg->addr << 1) & 0xfe) | XIIC_WRITE_OPERATION |
++                      XIIC_TX_DYN_START_MASK;
++              if ((i2c->nmsgs == 1) && msg->len == 0)
++                      /* no data and last message -> add STOP */
++                      data |= XIIC_TX_DYN_STOP_MASK;
++
++              xiic_setreg16(i2c, XIIC_DTR_REG_OFFSET, data);
++      }
++
++      xiic_fill_tx_fifo(i2c);
++
++      /* Clear any pending Tx empty, Tx Error and then enable them. */
++      XIic_mClearEnableIntr(i2c,
++              XIIC_INTR_TX_EMPTY_MASK | XIIC_INTR_TX_ERROR_MASK |
++              XIIC_INTR_BNB_MASK);
++}
++
++static inline void xiic_setreg8(struct xiic_i2c *i2c, int reg, u8 value)
++{
++      iowrite8(value, i2c->base + reg);
++}
++
++static inline u8 xiic_getreg8(struct xiic_i2c *i2c, int reg)
++{
++      return ioread8(i2c->base + reg);
++}
++
++static inline void xiic_setreg16(struct xiic_i2c *i2c, int reg, u16 value)
++{
++      iowrite16(value, i2c->base + reg);
++}
++
++static inline void xiic_setreg32(struct xiic_i2c *i2c, int reg, int value)
++{
++      iowrite32(value, i2c->base + reg);
++}
++
++static inline int xiic_getreg32(struct xiic_i2c *i2c, int reg)
++{
++      return ioread32(i2c->base + reg);
++}
++
++static irqreturn_t xiic_isr(int irq, void *dev_id)
++{
++      struct xiic_i2c *i2c = dev_id;
++      spin_lock(&i2c->lock);
++      XIIC_GINTR_DISABLE(i2c);
++
++      dev_dbg(i2c->adap.dev.parent, "%s entry\n", __func__);
++
++      xiic_process(i2c);
++
++      XIIC_GINTR_ENABLE(i2c);
++
++      spin_unlock(&i2c->lock);
++
++      return IRQ_HANDLED;
++}
++
++static void __xiic_start_xfer(struct xiic_i2c *i2c)
++{
++      int first = 1;
++      int fifo_space = xiic_tx_fifo_space(i2c);
++      dev_dbg(i2c->adap.dev.parent, "%s entry, msg: %p, fifos space: %d\n",
++              __func__, i2c->tx_msg, fifo_space);
++
++      if (!i2c->tx_msg)
++              return;
++
++      i2c->rx_pos = 0;
++      i2c->tx_pos = 0;
++      i2c->state = STATE_START;
++      while ((fifo_space >= 2) && (first || (i2c->nmsgs > 1))) {
++              if (!first) {
++                      i2c->nmsgs--;
++                      i2c->tx_msg++;
++                      i2c->tx_pos = 0;
++              } else
++                      first = 0;
++
++              if (i2c->tx_msg->flags & I2C_M_RD) {
++                      /* we dont date putting several reads in the FIFO */
++                      xiic_start_recv(i2c);
++                      return;
++              } else {
++                      xiic_start_send(i2c);
++                      if (xiic_tx_space(i2c) != 0) {
++                              /* the message could not be completely sent */
++                              break;
++                      }
++              }
++
++              fifo_space = xiic_tx_fifo_space(i2c);
++      }
++
++      /* there are more messages or the current one could not be completely
++       * put into the FIFO, also enable the half empty interrupt
++       */
++      if (i2c->nmsgs > 1 || xiic_tx_space(i2c))
++              XIic_mClearEnableIntr(i2c, XIIC_INTR_TX_HALF_MASK);
++
++}
++
++static void xiic_start_xfer(struct xiic_i2c *i2c)
++{
++      unsigned long flags;
++
++      spin_lock_irqsave(&i2c->lock, flags);
++      xiic_reinit(i2c);
++      XIIC_GINTR_DISABLE(i2c);
++      spin_unlock_irqrestore(&i2c->lock, flags);
++
++      __xiic_start_xfer(i2c);
++
++      XIIC_GINTR_ENABLE(i2c);
++}
++
++static int xiic_xfer(struct i2c_adapter *adap, struct i2c_msg *msgs, int num)
++{
++      struct xiic_i2c *i2c = i2c_get_adapdata(adap);
++      int err;
++
++      dev_dbg(adap->dev.parent, "%s entry SR: 0x%x\n", __func__,
++              xiic_getreg8(i2c, XIIC_SR_REG_OFFSET));
++
++      err = xiic_busy(i2c);
++      if (err) {
++              xiic_dump_regs(i2c, "bus busy");
++              return err;
++      }
++
++      i2c->tx_msg = msgs;
++      i2c->nmsgs = num;
++
++      xiic_start_xfer(i2c);
++
++      if (wait_event_timeout(i2c->wait, (i2c->state == STATE_ERROR) ||
++              (i2c->state == STATE_DONE), HZ))
++              return (i2c->state == STATE_DONE) ? num : -EIO;
++      else {
++              xiic_dump_regs(i2c, __func__);
++              i2c->tx_msg = NULL;
++              i2c->rx_msg = NULL;
++              i2c->nmsgs = 0;
++              return -ETIMEDOUT;
++      }
++}
++
++static u32 xiic_func(struct i2c_adapter *adap)
++{
++      return I2C_FUNC_I2C | I2C_FUNC_SMBUS_EMUL;
++}
++
++static const struct i2c_algorithm xiic_algorithm = {
++      .master_xfer    = xiic_xfer,
++      .functionality  = xiic_func,
++};
++
++static struct i2c_adapter xiic_adapter = {
++      .owner          = THIS_MODULE,
++      .name           = DRIVER_NAME,
++      .class          = I2C_CLASS_HWMON | I2C_CLASS_SPD,
++      .algo           = &xiic_algorithm,
++};
++
++
++static int __devinit xiic_i2c_probe(struct platform_device *pdev)
++{
++      struct xiic_i2c *i2c;
++      struct xiic_i2c_platform_data *pdata;
++      struct resource *res;
++      int ret, irq;
++      u8 i;
++
++      res = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++      if (!res)
++              return -ENODEV;
++
++      irq = platform_get_irq(pdev, 0);
++      if (irq < 0)
++              return -ENODEV;
++
++      pdata = (struct xiic_i2c_platform_data *) pdev->dev.platform_data;
++      if (!pdata)
++              return -ENODEV;
++
++      i2c = kzalloc(sizeof(*i2c), GFP_KERNEL);
++      if (!i2c)
++              return -ENOMEM;
++
++      if (!request_mem_region(res->start, resource_size(res), pdev->name)) {
++              dev_err(&pdev->dev, "Memory region busy\n");
++              ret = -EBUSY;
++              goto request_mem_failed;
++      }
++
++      i2c->base = ioremap(res->start, resource_size(res));
++      if (!i2c->base) {
++              dev_err(&pdev->dev, "Unable to map registers\n");
++              ret = -EIO;
++              goto map_failed;
++      }
++
++      /* hook up driver to tree */
++      platform_set_drvdata(pdev, i2c);
++      i2c->adap = xiic_adapter;
++      i2c_set_adapdata(&i2c->adap, i2c);
++      i2c->adap.dev.parent = &pdev->dev;
++
++      xiic_reinit(i2c);
++
++      spin_lock_init(&i2c->lock);
++      init_waitqueue_head(&i2c->wait);
++      ret = request_irq(irq, xiic_isr, 0, pdev->name, i2c);
++      if (ret) {
++              dev_err(&pdev->dev, "Cannot claim IRQ\n");
++              goto request_irq_failed;
++      }
++
++      /* add i2c adapter to i2c tree */
++      ret = i2c_add_adapter(&i2c->adap);
++      if (ret) {
++              dev_err(&pdev->dev, "Failed to add adapter\n");
++              goto add_adapter_failed;
++      }
++
++      /* add in known devices to the bus */
++      for (i = 0; i < pdata->num_devices; i++)
++              i2c_new_device(&i2c->adap, pdata->devices + i);
++
++      return 0;
++
++add_adapter_failed:
++      free_irq(irq, i2c);
++request_irq_failed:
++      xiic_deinit(i2c);
++      iounmap(i2c->base);
++map_failed:
++      release_mem_region(res->start, resource_size(res));
++request_mem_failed:
++      kfree(i2c);
++
++      return ret;
++}
++
++static int __devexit xiic_i2c_remove(struct platform_device* pdev)
++{
++      struct xiic_i2c *i2c = platform_get_drvdata(pdev);
++      struct resource *res;
++
++      /* remove adapter & data */
++      i2c_del_adapter(&i2c->adap);
++
++      xiic_deinit(i2c);
++
++      platform_set_drvdata(pdev, NULL);
++
++      free_irq(platform_get_irq(pdev, 0), i2c);
++
++      iounmap(i2c->base);
++
++      res = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++      if (res)
++              release_mem_region(res->start, resource_size(res));
++
++      kfree(i2c);
++
++      return 0;
++}
++
++
++/* work with hotplug and coldplug */
++MODULE_ALIAS("platform:"DRIVER_NAME);
++
++static struct platform_driver xiic_i2c_driver = {
++      .probe   = xiic_i2c_probe,
++      .remove  = __devexit_p(xiic_i2c_remove),
++      .driver  = {
++              .owner = THIS_MODULE,
++              .name = DRIVER_NAME,
++      },
++};
++
++static int __init xiic_i2c_init(void)
++{
++      return platform_driver_register(&xiic_i2c_driver);
++}
++
++static void __exit xiic_i2c_exit(void)
++{
++      platform_driver_unregister(&xiic_i2c_driver);
++}
++
++module_init(xiic_i2c_init);
++module_exit(xiic_i2c_exit);
++
++MODULE_AUTHOR("info@mocean-labs.com");
++MODULE_DESCRIPTION("Xilinx I2C bus driver");
++MODULE_LICENSE("GPL v2");
+diff -uNr linux-2.6.31/drivers/i2c/busses/Kconfig linux-2.6.31.new/drivers/i2c/busses/Kconfig
+--- linux-2.6.31/drivers/i2c/busses/Kconfig    2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/i2c/busses/Kconfig        2009-10-23 11:17:29.000000000 -0700
+@@ -433,6 +433,16 @@
+         This driver can also be built as a module.  If so, the module
+         will be called i2c-ocores.
++config I2C_XILINX
++      tristate "Xilinx I2C Controller"
++      depends on EXPERIMENTAL && HAS_IOMEM
++      help
++        If you say yes to this option, support will be included for the
++        Xilinx I2C controller.
++
++        This driver can also be built as a module.  If so, the module
++        will be called xilinx_i2c.
++
+ config I2C_OMAP
+       tristate "OMAP I2C adapter"
+       depends on ARCH_OMAP
+diff -uNr linux-2.6.31/drivers/i2c/busses/Makefile linux-2.6.31.new/drivers/i2c/busses/Makefile
+--- linux-2.6.31/drivers/i2c/busses/Makefile   2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/i2c/busses/Makefile       2009-10-23 11:17:29.000000000 -0700
+@@ -40,6 +40,7 @@
+ obj-$(CONFIG_I2C_MPC)         += i2c-mpc.o
+ obj-$(CONFIG_I2C_MV64XXX)     += i2c-mv64xxx.o
+ obj-$(CONFIG_I2C_OCORES)      += i2c-ocores.o
++obj-$(CONFIG_I2C_XILINX)      += i2c-xiic.o
+ obj-$(CONFIG_I2C_OMAP)                += i2c-omap.o
+ obj-$(CONFIG_I2C_PASEMI)      += i2c-pasemi.o
+ obj-$(CONFIG_I2C_PNX)         += i2c-pnx.o
+diff -uNr linux-2.6.31/drivers/input/touchscreen/tsc2007.c linux-2.6.31.new/drivers/input/touchscreen/tsc2007.c
+--- linux-2.6.31/drivers/input/touchscreen/tsc2007.c   2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/input/touchscreen/tsc2007.c       2009-10-23 11:17:19.000000000 -0700
+@@ -21,15 +21,14 @@
+  */
+ #include <linux/module.h>
+-#include <linux/hrtimer.h>
+ #include <linux/slab.h>
+ #include <linux/input.h>
+ #include <linux/interrupt.h>
+ #include <linux/i2c.h>
+ #include <linux/i2c/tsc2007.h>
+-#define TS_POLL_DELAY (10 * 1000)     /* ns delay before the first sample */
+-#define TS_POLL_PERIOD        (5 * 1000)      /* ns delay between samples */
++#define TS_POLL_DELAY                 1 /* ms delay between samples */
++#define TS_POLL_PERIOD                        1 /* ms delay between samples */
+ #define TSC2007_MEASURE_TEMP0         (0x0 << 4)
+ #define TSC2007_MEASURE_AUX           (0x2 << 4)
+@@ -70,17 +69,15 @@
+ struct tsc2007 {
+       struct input_dev        *input;
+       char                    phys[32];
+-      struct hrtimer          timer;
+-      struct ts_event         tc;
++      struct delayed_work     work;
+       struct i2c_client       *client;
+-      spinlock_t              lock;
+-
+       u16                     model;
+       u16                     x_plate_ohms;
+-      unsigned                pendown;
++      bool                    pendown;
++      bool                    ignore_first_irq;
+       int                     irq;
+       int                     (*get_pendown_state)(void);
+@@ -109,52 +106,96 @@
+       return val;
+ }
+-static void tsc2007_send_event(void *tsc)
++static void tsc2007_read_values(struct tsc2007 *tsc, struct ts_event *tc)
++{
++      /* y- still on; turn on only y+ (and ADC) */
++      tc->y = tsc2007_xfer(tsc, READ_Y);
++
++      /* turn y- off, x+ on, then leave in lowpower */
++      tc->x = tsc2007_xfer(tsc, READ_X);
++
++      /* turn y+ off, x- on; we'll use formula #1 */
++      tc->z1 = tsc2007_xfer(tsc, READ_Z1);
++      tc->z2 = tsc2007_xfer(tsc, READ_Z2);
++
++      /* Prepare for next touch reading - power down ADC, enable PENIRQ */
++      tsc2007_xfer(tsc, PWRDOWN);
++}
++
++static u32 tsc2007_calculate_pressure(struct tsc2007 *tsc, struct ts_event *tc)
+ {
+-      struct tsc2007  *ts = tsc;
+-      u32             rt;
+-      u16             x, y, z1, z2;
+-
+-      x = ts->tc.x;
+-      y = ts->tc.y;
+-      z1 = ts->tc.z1;
+-      z2 = ts->tc.z2;
++      u32 rt = 0;
+       /* range filtering */
+-      if (x == MAX_12BIT)
+-              x = 0;
++      if (tc->x == MAX_12BIT)
++              tc->x = 0;
+-      if (likely(x && z1)) {
++      if (likely(tc->x && tc->z1)) {
+               /* compute touch pressure resistance using equation #1 */
+-              rt = z2;
+-              rt -= z1;
+-              rt *= x;
+-              rt *= ts->x_plate_ohms;
+-              rt /= z1;
++              rt = tc->z2 - tc->z1;
++              rt *= tc->x;
++              rt *= tsc->x_plate_ohms;
++              rt /= tc->z1;
+               rt = (rt + 2047) >> 12;
+-      } else
+-              rt = 0;
++      }
++
++      return rt;
++}
++
++static void tsc2007_send_up_event(struct tsc2007 *tsc)
++{
++      struct input_dev *input = tsc->input;
++
++      dev_dbg(&tsc->client->dev, "UP\n");
+-      /* Sample found inconsistent by debouncing or pressure is beyond
+-       * the maximum. Don't report it to user space, repeat at least
+-       * once more the measurement
++      input_report_key(input, BTN_TOUCH, 0);
++      input_report_abs(input, ABS_PRESSURE, 0);
++      input_sync(input);
++}
++
++static void tsc2007_work(struct work_struct *work)
++{
++      struct tsc2007 *ts =
++              container_of(to_delayed_work(work), struct tsc2007, work);
++      struct ts_event tc;
++      u32 rt;
++
++      /*
++       * NOTE: We can't rely on the pressure to determine the pen down
++       * state, even though this controller has a pressure sensor.
++       * The pressure value can fluctuate for quite a while after
++       * lifting the pen and in some cases may not even settle at the
++       * expected value.
++       *
++       * The only safe way to check for the pen up condition is in the
++       * work function by reading the pen signal state (it's a GPIO
++       * and IRQ). Unfortunately such callback is not always available,
++       * in that case we have rely on the pressure anyway.
+        */
++      if (ts->get_pendown_state) {
++              if (unlikely(!ts->get_pendown_state())) {
++                      tsc2007_send_up_event(ts);
++                      ts->pendown = false;
++                      goto out;
++              }
++
++              dev_dbg(&ts->client->dev, "pen is still down\n");
++      }
++
++      tsc2007_read_values(ts, &tc);
++
++      rt = tsc2007_calculate_pressure(ts, &tc);
+       if (rt > MAX_12BIT) {
++              /*
++               * Sample found inconsistent by debouncing or pressure is
++               * beyond the maximum. Don't report it to user space,
++               * repeat at least once more the measurement.
++               */
+               dev_dbg(&ts->client->dev, "ignored pressure %d\n", rt);
++              goto out;
+-              hrtimer_start(&ts->timer, ktime_set(0, TS_POLL_PERIOD),
+-                            HRTIMER_MODE_REL);
+-              return;
+       }
+-      /* NOTE: We can't rely on the pressure to determine the pen down
+-       * state, even this controller has a pressure sensor.  The pressure
+-       * value can fluctuate for quite a while after lifting the pen and
+-       * in some cases may not even settle at the expected value.
+-       *
+-       * The only safe way to check for the pen up condition is in the
+-       * timer by reading the pen signal state (it's a GPIO _and_ IRQ).
+-       */
+       if (rt) {
+               struct input_dev *input = ts->input;
+@@ -162,102 +203,82 @@
+                       dev_dbg(&ts->client->dev, "DOWN\n");
+                       input_report_key(input, BTN_TOUCH, 1);
+-                      ts->pendown = 1;
++                      ts->pendown = true;
+               }
+-              input_report_abs(input, ABS_X, x);
+-              input_report_abs(input, ABS_Y, y);
++              input_report_abs(input, ABS_X, tc.x);
++              input_report_abs(input, ABS_Y, tc.y);
+               input_report_abs(input, ABS_PRESSURE, rt);
+               input_sync(input);
+               dev_dbg(&ts->client->dev, "point(%4d,%4d), pressure (%4u)\n",
+-                      x, y, rt);
+-      }
+-
+-      hrtimer_start(&ts->timer, ktime_set(0, TS_POLL_PERIOD),
+-                      HRTIMER_MODE_REL);
+-}
+-
+-static int tsc2007_read_values(struct tsc2007 *tsc)
+-{
+-      /* y- still on; turn on only y+ (and ADC) */
+-      tsc->tc.y = tsc2007_xfer(tsc, READ_Y);
+-
+-      /* turn y- off, x+ on, then leave in lowpower */
+-      tsc->tc.x = tsc2007_xfer(tsc, READ_X);
+-
+-      /* turn y+ off, x- on; we'll use formula #1 */
+-      tsc->tc.z1 = tsc2007_xfer(tsc, READ_Z1);
+-      tsc->tc.z2 = tsc2007_xfer(tsc, READ_Z2);
+-
+-      /* power down */
+-      tsc2007_xfer(tsc, PWRDOWN);
+-
+-      return 0;
+-}
+-
+-static enum hrtimer_restart tsc2007_timer(struct hrtimer *handle)
+-{
+-      struct tsc2007 *ts = container_of(handle, struct tsc2007, timer);
+-      unsigned long flags;
+-
+-      spin_lock_irqsave(&ts->lock, flags);
+-
+-      if (unlikely(!ts->get_pendown_state() && ts->pendown)) {
+-              struct input_dev *input = ts->input;
+-
+-              dev_dbg(&ts->client->dev, "UP\n");
++                      tc.x, tc.y, rt);
+-              input_report_key(input, BTN_TOUCH, 0);
+-              input_report_abs(input, ABS_PRESSURE, 0);
+-              input_sync(input);
++      } else if (!ts->get_pendown_state && ts->pendown) {
++              /*
++               * We don't have callback to check pendown state, so we
++               * have to assume that since pressure reported is 0 the
++               * pen was lifted up.
++               */
++              tsc2007_send_up_event(ts);
++              ts->pendown = false;
++      }
+-              ts->pendown = 0;
++ out:
++      if (ts->pendown)
++              schedule_delayed_work(&ts->work,
++                                    msecs_to_jiffies(TS_POLL_PERIOD));
++      else {
++              if (!ts->get_pendown_state)
++                      ts->ignore_first_irq = 1;
+               enable_irq(ts->irq);
+-      } else {
+-              /* pen is still down, continue with the measurement */
+-              dev_dbg(&ts->client->dev, "pen is still down\n");
+-
+-              tsc2007_read_values(ts);
+-              tsc2007_send_event(ts);
+       }
+-
+-      spin_unlock_irqrestore(&ts->lock, flags);
+-
+-      return HRTIMER_NORESTART;
+ }
+ static irqreturn_t tsc2007_irq(int irq, void *handle)
+ {
+       struct tsc2007 *ts = handle;
+-      unsigned long flags;
+-      spin_lock_irqsave(&ts->lock, flags);
++      if (ts->ignore_first_irq) {
++              ts->ignore_first_irq = 0;
++              return IRQ_HANDLED;
++      }
+-      if (likely(ts->get_pendown_state())) {
++      if (!ts->get_pendown_state || likely(ts->get_pendown_state())) {
+               disable_irq_nosync(ts->irq);
+-              hrtimer_start(&ts->timer, ktime_set(0, TS_POLL_DELAY),
+-                                      HRTIMER_MODE_REL);
++              schedule_delayed_work(&ts->work,
++                                    msecs_to_jiffies(TS_POLL_DELAY));
+       }
+       if (ts->clear_penirq)
+               ts->clear_penirq();
+-      spin_unlock_irqrestore(&ts->lock, flags);
+-
+       return IRQ_HANDLED;
+ }
+-static int tsc2007_probe(struct i2c_client *client,
+-                      const struct i2c_device_id *id)
++static void tsc2007_free_irq(struct tsc2007 *ts)
++{
++      free_irq(ts->irq, ts);
++      if (cancel_delayed_work_sync(&ts->work)) {
++              /*
++               * Work was pending, therefore we need to enable
++               * IRQ here to balance the disable_irq() done in the
++               * interrupt handler.
++               */
++              enable_irq(ts->irq);
++      }
++}
++
++static int __devinit tsc2007_probe(struct i2c_client *client,
++                                 const struct i2c_device_id *id)
+ {
+       struct tsc2007 *ts;
+       struct tsc2007_platform_data *pdata = pdata = client->dev.platform_data;
+       struct input_dev *input_dev;
+       int err;
+-      if (!pdata || !pdata->get_pendown_state) {
++      if (!pdata) {
+               dev_err(&client->dev, "platform data is required!\n");
+               return -EINVAL;
+       }
+@@ -274,22 +295,15 @@
+       }
+       ts->client = client;
+-      i2c_set_clientdata(client, ts);
+-
++      ts->irq = client->irq;
+       ts->input = input_dev;
+-
+-      hrtimer_init(&ts->timer, CLOCK_MONOTONIC, HRTIMER_MODE_REL);
+-      ts->timer.function = tsc2007_timer;
+-
+-      spin_lock_init(&ts->lock);
++      INIT_DELAYED_WORK(&ts->work, tsc2007_work);
+       ts->model             = pdata->model;
+       ts->x_plate_ohms      = pdata->x_plate_ohms;
+       ts->get_pendown_state = pdata->get_pendown_state;
+       ts->clear_penirq      = pdata->clear_penirq;
+-      pdata->init_platform_hw();
+-
+       snprintf(ts->phys, sizeof(ts->phys),
+                "%s/input0", dev_name(&client->dev));
+@@ -304,9 +318,8 @@
+       input_set_abs_params(input_dev, ABS_Y, 0, MAX_12BIT, 0, 0);
+       input_set_abs_params(input_dev, ABS_PRESSURE, 0, MAX_12BIT, 0, 0);
+-      tsc2007_read_values(ts);
+-
+-      ts->irq = client->irq;
++      if (pdata->init_platform_hw)
++              pdata->init_platform_hw();
+       err = request_irq(ts->irq, tsc2007_irq, 0,
+                       client->dev.driver->name, ts);
+@@ -319,29 +332,37 @@
+       if (err)
+               goto err_free_irq;
+-      dev_info(&client->dev, "registered with irq (%d)\n", ts->irq);
++      i2c_set_clientdata(client, ts);
++
++      /* Prepare for touch readings - power down ADC and enable PENIRQ */
++      err = tsc2007_xfer(ts, PWRDOWN);
++      if (err < 0)
++              goto err_unreg_dev;
+       return 0;
++ err_unreg_dev:
++      input_unregister_device(ts->input);
+  err_free_irq:
+-      free_irq(ts->irq, ts);
+-      hrtimer_cancel(&ts->timer);
++      tsc2007_free_irq(ts);
++      if (pdata->exit_platform_hw)
++              pdata->exit_platform_hw();
+  err_free_mem:
+       input_free_device(input_dev);
+       kfree(ts);
+       return err;
+ }
+-static int tsc2007_remove(struct i2c_client *client)
++static int __devexit tsc2007_remove(struct i2c_client *client)
+ {
+       struct tsc2007  *ts = i2c_get_clientdata(client);
+-      struct tsc2007_platform_data *pdata;
++      struct tsc2007_platform_data *pdata = client->dev.platform_data;
+-      pdata = client->dev.platform_data;
+-      pdata->exit_platform_hw();
++      tsc2007_free_irq(ts);
++
++      if (pdata->exit_platform_hw)
++              pdata->exit_platform_hw();
+-      free_irq(ts->irq, ts);
+-      hrtimer_cancel(&ts->timer);
+       input_unregister_device(ts->input);
+       kfree(ts);
+@@ -362,7 +383,7 @@
+       },
+       .id_table       = tsc2007_idtable,
+       .probe          = tsc2007_probe,
+-      .remove         = tsc2007_remove,
++      .remove         = __devexit_p(tsc2007_remove),
+ };
+ static int __init tsc2007_init(void)
+diff -uNr linux-2.6.31/drivers/media/radio/Kconfig linux-2.6.31.new/drivers/media/radio/Kconfig
+--- linux-2.6.31/drivers/media/radio/Kconfig   2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/media/radio/Kconfig       2009-10-23 11:17:28.000000000 -0700
+@@ -406,4 +406,38 @@
+         Say Y here if TEA5764 have a 32768 Hz crystal in circuit, say N
+         here if TEA5764 reference frequency is connected in FREQIN.
++config RADIO_SAA7706H
++      tristate "SAA7706H Car Radio DSP"
++      depends on I2C && VIDEO_V4L2
++      ---help---
++        Say Y here if you want to use the SAA7706H Car radio Digital
++        Signal Processor, found for instance on the Russellville development
++        board. On the russellville the device is connected to internal
++        timberdale I2C bus.
++
++        To compile this driver as a module, choose M here: the
++        module will be called SAA7706H.
++
++config RADIO_TEF6862
++      tristate "TEF6862 Car Radio Enhanced Selectivity Tuner"
++      depends on I2C && VIDEO_V4L2
++      ---help---
++        Say Y here if you want to use the TEF6862 Car Radio Enhanced
++        Selectivity Tuner, found for instance on the Russellville development
++        board. On the russellville the device is connected to internal
++        timberdale I2C bus.
++
++        To compile this driver as a module, choose M here: the
++        module will be called TEF6862.
++
++config RADIO_TIMBERDALE
++      tristate "Enable the Timberdale radio driver"
++      depends on MFD_TIMBERDALE && VIDEO_V4L2 && HAS_IOMEM
++      select RADIO_TEF6862
++      select RADIO_SAA7706H
++      ---help---
++        This is a kind of umbrella driver for the Radio Tuner and DSP
++        found behind the Timberdale FPGA on the Russellville board.
++        Enable this driver will automatically select the DSP and tuner.
++
+ endif # RADIO_ADAPTERS
+diff -uNr linux-2.6.31/drivers/media/radio/Makefile linux-2.6.31.new/drivers/media/radio/Makefile
+--- linux-2.6.31/drivers/media/radio/Makefile  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/media/radio/Makefile      2009-10-23 11:17:28.000000000 -0700
+@@ -20,5 +20,8 @@
+ obj-$(CONFIG_USB_SI470X) += radio-si470x.o
+ obj-$(CONFIG_USB_MR800) += radio-mr800.o
+ obj-$(CONFIG_RADIO_TEA5764) += radio-tea5764.o
++obj-$(CONFIG_RADIO_SAA7706H) += saa7706h.o
++obj-$(CONFIG_RADIO_TEF6862) += tef6862.o
++obj-$(CONFIG_RADIO_TIMBERDALE) += radio-timb.o
+ EXTRA_CFLAGS += -Isound
+diff -uNr linux-2.6.31/drivers/media/radio/radio-timb.c linux-2.6.31.new/drivers/media/radio/radio-timb.c
+--- linux-2.6.31/drivers/media/radio/radio-timb.c      1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/media/radio/radio-timb.c  2009-10-23 11:17:28.000000000 -0700
+@@ -0,0 +1,545 @@
++/*
++ * radio-timb.c Timberdale FPGA Radio driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/list.h>
++#include <linux/version.h>
++#include <linux/module.h>
++#include <linux/io.h>
++#include <media/v4l2-common.h>
++#include <media/v4l2-ioctl.h>
++#include <media/v4l2-device.h>
++#include <linux/platform_device.h>
++#include <linux/interrupt.h>
++#include <linux/i2c.h>
++#include <media/timb_radio.h>
++
++#define DRIVER_NAME "timb-radio"
++
++#define RDS_BLOCK_SIZE 4
++#define RDS_BUFFER_SIZE (RDS_BLOCK_SIZE * 100)
++
++struct timbradio {
++      struct mutex            lock; /* for mutual exclusion */
++      void __iomem            *membase;
++      struct timb_radio_platform_data pdata;
++      struct v4l2_subdev      *sd_tuner;
++      struct module           *tuner_owner;
++      struct v4l2_subdev      *sd_dsp;
++      struct module           *dsp_owner;
++      struct video_device     *video_dev;
++      /* RDS related */
++      int open_count;
++      int rds_irq;
++      wait_queue_head_t read_queue;
++      unsigned char buffer[RDS_BUFFER_SIZE];
++      unsigned int rd_index;
++      unsigned int wr_index;
++};
++
++
++static int timbradio_vidioc_querycap(struct file *file, void  *priv,
++                          struct v4l2_capability *v)
++{
++      strlcpy(v->driver, DRIVER_NAME, sizeof(v->driver));
++      strlcpy(v->card, "Timberdale Radio", sizeof(v->card));
++      snprintf(v->bus_info, sizeof(v->bus_info), "platform:"DRIVER_NAME);
++      v->version = KERNEL_VERSION(0, 0, 1);
++      v->capabilities = V4L2_CAP_TUNER | V4L2_CAP_RADIO;
++      return 0;
++}
++
++static int timbradio_vidioc_g_tuner(struct file *file, void *priv,
++                         struct v4l2_tuner *v)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int ret;
++
++      mutex_lock(&tr->lock);
++      ret = v4l2_subdev_call(tr->sd_tuner, tuner, g_tuner, v);
++      mutex_unlock(&tr->lock);
++
++      return ret;
++}
++
++static int timbradio_vidioc_s_tuner(struct file *file, void *priv,
++                         struct v4l2_tuner *v)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int ret;
++
++      mutex_lock(&tr->lock);
++      ret = v4l2_subdev_call(tr->sd_tuner, tuner, s_tuner, v);
++      mutex_unlock(&tr->lock);
++
++      return ret;
++}
++
++static int timbradio_vidioc_g_input(struct file *filp, void *priv,
++      unsigned int *i)
++{
++      *i = 0;
++      return 0;
++}
++
++static int timbradio_vidioc_s_input(struct file *filp, void *priv,
++      unsigned int i)
++{
++      return i ? -EINVAL : 0;
++}
++
++static int timbradio_vidioc_g_audio(struct file *file, void *priv,
++                         struct v4l2_audio *a)
++{
++      a->index = 0;
++      strlcpy(a->name, "Radio", sizeof(a->name));
++      a->capability = V4L2_AUDCAP_STEREO;
++      return 0;
++}
++
++
++static int timbradio_vidioc_s_audio(struct file *file, void *priv,
++                         struct v4l2_audio *a)
++{
++      return a->index ? -EINVAL : 0;
++}
++
++static int timbradio_vidioc_s_frequency(struct file *file, void *priv,
++                             struct v4l2_frequency *f)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int ret;
++
++      mutex_lock(&tr->lock);
++      ret = v4l2_subdev_call(tr->sd_tuner, tuner, s_frequency, f);
++      mutex_unlock(&tr->lock);
++
++      return ret;
++}
++
++static int timbradio_vidioc_g_frequency(struct file *file, void *priv,
++                             struct v4l2_frequency *f)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int ret;
++
++      mutex_lock(&tr->lock);
++      ret = v4l2_subdev_call(tr->sd_tuner, tuner, g_frequency, f);
++      mutex_unlock(&tr->lock);
++
++      return ret;
++}
++
++static int timbradio_vidioc_queryctrl(struct file *file, void *priv,
++                           struct v4l2_queryctrl *qc)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int ret;
++
++      mutex_lock(&tr->lock);
++      ret = v4l2_subdev_call(tr->sd_dsp, core, queryctrl, qc);
++      mutex_unlock(&tr->lock);
++
++      return ret;
++}
++
++static int timbradio_vidioc_g_ctrl(struct file *file, void *priv,
++              struct v4l2_control *ctrl)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int ret;
++
++      mutex_lock(&tr->lock);
++      ret = v4l2_subdev_call(tr->sd_dsp, core, g_ctrl, ctrl);
++      mutex_unlock(&tr->lock);
++
++      return ret;
++}
++
++static int timbradio_vidioc_s_ctrl(struct file *file, void *priv,
++              struct v4l2_control *ctrl)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int ret;
++
++      mutex_lock(&tr->lock);
++      ret = v4l2_subdev_call(tr->sd_dsp, core, s_ctrl, ctrl);
++      mutex_unlock(&tr->lock);
++
++      return ret;
++}
++
++static const struct v4l2_ioctl_ops timbradio_ioctl_ops = {
++      .vidioc_querycap        = timbradio_vidioc_querycap,
++      .vidioc_g_tuner         = timbradio_vidioc_g_tuner,
++      .vidioc_s_tuner         = timbradio_vidioc_s_tuner,
++      .vidioc_g_frequency     = timbradio_vidioc_g_frequency,
++      .vidioc_s_frequency     = timbradio_vidioc_s_frequency,
++      .vidioc_g_input         = timbradio_vidioc_g_input,
++      .vidioc_s_input         = timbradio_vidioc_s_input,
++      .vidioc_g_audio         = timbradio_vidioc_g_audio,
++      .vidioc_s_audio         = timbradio_vidioc_s_audio,
++      .vidioc_queryctrl       = timbradio_vidioc_queryctrl,
++      .vidioc_g_ctrl          = timbradio_vidioc_g_ctrl,
++      .vidioc_s_ctrl          = timbradio_vidioc_s_ctrl
++};
++
++static irqreturn_t timbradio_irq(int irq, void *devid)
++{
++      struct timbradio *tr = devid;
++      u32 data = ioread32(tr->membase);
++
++      tr->buffer[tr->wr_index++] = data >> 24;
++      tr->buffer[tr->wr_index++] = data >> 16;
++      tr->buffer[tr->wr_index++] = data >> 8;
++      tr->buffer[tr->wr_index++] = data;
++      tr->wr_index %= RDS_BUFFER_SIZE;
++
++      wake_up(&tr->read_queue);
++
++      /* new RDS data received, read it */
++      return IRQ_HANDLED;
++}
++
++/**************************************************************************
++ * File Operations Interface
++ **************************************************************************/
++
++static ssize_t timbradio_rds_fops_read(struct file *file, char __user *buf,
++              size_t count, loff_t *ppos)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int outblocks = 0;
++
++      /* block if no new data available */
++      while (tr->wr_index == tr->rd_index) {
++              if (file->f_flags & O_NONBLOCK)
++                      return -EWOULDBLOCK;
++
++              if (wait_event_interruptible(tr->read_queue,
++                      tr->wr_index != tr->rd_index))
++                      return -EINTR;
++      }
++
++      count /= RDS_BLOCK_SIZE;
++      /* copy RDS block out of internal buffer and to user buffer */
++      mutex_lock(&tr->lock);
++      while (outblocks < count) {
++              if (tr->rd_index == tr->wr_index)
++                      break;
++
++              if (copy_to_user(buf, tr->buffer + tr->rd_index,
++                      RDS_BLOCK_SIZE))
++                      break;
++              tr->rd_index += RDS_BLOCK_SIZE;
++              tr->rd_index %= RDS_BUFFER_SIZE;
++              outblocks++;
++      }
++      mutex_unlock(&tr->lock);
++
++      return outblocks *RDS_BLOCK_SIZE;
++}
++
++static unsigned int timbradio_rds_fops_poll(struct file *file,
++              struct poll_table_struct *pts)
++{
++      struct timbradio *tr = video_drvdata(file);
++
++      poll_wait(file, &tr->read_queue, pts);
++
++      if (tr->rd_index != tr->wr_index)
++              return POLLIN | POLLRDNORM;
++
++      return 0;
++}
++
++struct find_addr_arg {
++      char const *name;
++      struct i2c_client *client;
++};
++
++static int find_name(struct device *dev, void *argp)
++{
++      struct find_addr_arg    *arg = (struct find_addr_arg *)argp;
++      struct i2c_client       *client = i2c_verify_client(dev);
++
++      if (client && !strcmp(arg->name, client->name) && client->driver)
++              arg->client = client;
++
++      return 0;
++}
++
++static struct i2c_client *find_client(struct i2c_adapter *adapt,
++      const char *name)
++{
++      struct find_addr_arg find_arg;
++      /* now find the client */
++#ifdef MODULE
++      request_module(name);
++#endif
++      /* code for finding the I2C child */
++      find_arg.name = name;
++      find_arg.client = NULL;
++      device_for_each_child(&adapt->dev, &find_arg, find_name);
++      return find_arg.client;
++}
++
++static int timbradio_rds_fops_open(struct file *file)
++{
++      struct timbradio *tr = video_drvdata(file);
++      int err = 0;
++
++      mutex_lock(&tr->lock);
++      if (tr->open_count == 0) {
++              /* device currently not open, check if the DSP and tuner is not
++               * yet found, in that case find them
++               */
++              if (!tr->sd_tuner) {
++                      struct i2c_adapter *adapt;
++                      struct i2c_client *tuner;
++                      struct i2c_client *dsp;
++
++                      /* find the I2C bus */
++                      adapt = i2c_get_adapter(tr->pdata.i2c_adapter);
++                      if (!adapt) {
++                              printk(KERN_ERR DRIVER_NAME": No I2C bus\n");
++                              err = -ENODEV;
++                              goto out;
++                      }
++
++                      /* now find the tuner and dsp */
++                      tuner = find_client(adapt, tr->pdata.tuner);
++                      dsp = find_client(adapt, tr->pdata.dsp);
++
++                      i2c_put_adapter(adapt);
++
++                      if (!tuner || !dsp) {
++                              printk(KERN_ERR DRIVER_NAME
++                                      ": Failed to get tuner or DSP\n");
++                              err = -ENODEV;
++                              goto out;
++                      }
++
++                      tr->sd_tuner = i2c_get_clientdata(tuner);
++                      tr->sd_dsp = i2c_get_clientdata(dsp);
++
++                      tr->tuner_owner = tr->sd_tuner->owner;
++                      tr->dsp_owner = tr->sd_dsp->owner;
++                      /* Lock the modules */
++                      if (!try_module_get(tr->tuner_owner)) {
++                              err = -ENODEV;
++                              goto err_get_tuner;
++                      }
++
++                      if (!try_module_get(tr->dsp_owner)) {
++                              err = -ENODEV;
++                              goto err_get_dsp;
++                      }
++              }
++
++              /* enable the IRQ for receiving RDS data */
++              err = request_irq(tr->rds_irq, timbradio_irq, 0, DRIVER_NAME,
++                      tr);
++      }
++      goto out;
++
++err_get_dsp:
++      module_put(tr->tuner_owner);
++err_get_tuner:
++      tr->sd_tuner = NULL;
++      tr->sd_dsp = NULL;
++out:
++      if (!err)
++              tr->open_count++;
++      mutex_unlock(&tr->lock);
++      return err;
++}
++
++static int timbradio_rds_fops_release(struct file *file)
++{
++      struct timbradio *tr = video_drvdata(file);
++
++      mutex_lock(&tr->lock);
++      tr->open_count--;
++      if (!tr->open_count) {
++              free_irq(tr->rds_irq, tr);
++
++              tr->wr_index = 0;
++              tr->rd_index = 0;
++
++              /* cancel read processes */
++              wake_up_interruptible(&tr->read_queue);
++      }
++      mutex_unlock(&tr->lock);
++
++      return 0;
++}
++
++
++static const struct v4l2_file_operations timbradio_fops = {
++      .owner          = THIS_MODULE,
++      .ioctl          = video_ioctl2,
++      .read           = timbradio_rds_fops_read,
++      .poll           = timbradio_rds_fops_poll,
++      .open           = timbradio_rds_fops_open,
++      .release        = timbradio_rds_fops_release,
++};
++
++static const struct video_device timbradio_template = {
++      .name           = "Timberdale Radio",
++      .fops           = &timbradio_fops,
++      .ioctl_ops      = &timbradio_ioctl_ops,
++      .release        = video_device_release_empty,
++      .minor          = -1
++};
++
++
++
++static int timbradio_probe(struct platform_device *pdev)
++{
++      struct timb_radio_platform_data *pdata = pdev->dev.platform_data;
++      struct timbradio *tr;
++      struct resource *iomem;
++      int irq;
++      int err;
++
++      if (!pdata) {
++              printk(KERN_ERR DRIVER_NAME": Platform data missing\n");
++              err = -EINVAL;
++              goto err;
++      }
++
++      iomem = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++      if (!iomem) {
++              err = -ENODEV;
++              goto err;
++      }
++
++      irq = platform_get_irq(pdev, 0);
++      if (irq < 0) {
++              err = -ENODEV;
++              goto err;
++      }
++
++      if (!request_mem_region(iomem->start, resource_size(iomem),
++              DRIVER_NAME)) {
++              err = -EBUSY;
++              goto err;
++      }
++
++      tr = kzalloc(sizeof(*tr), GFP_KERNEL);
++      if (!tr) {
++              err = -ENOMEM;
++              goto err_alloc;
++      }
++      mutex_init(&tr->lock);
++
++      tr->membase = ioremap(iomem->start, resource_size(iomem));
++      if (!tr->membase) {
++              err = -ENOMEM;
++              goto err_ioremap;
++      }
++
++      memcpy(&tr->pdata, pdata, sizeof(tr->pdata));
++
++      tr->video_dev = video_device_alloc();
++      if (!tr->video_dev) {
++              err = -ENOMEM;
++              goto err_video_req;
++      }
++      *tr->video_dev = timbradio_template;
++      tr->rds_irq = irq;
++      init_waitqueue_head(&tr->read_queue);
++
++      err = video_register_device(tr->video_dev, VFL_TYPE_RADIO, -1);
++      if (err) {
++              printk(KERN_ALERT DRIVER_NAME": Error reg video\n");
++              goto err_video_req;
++      }
++
++      video_set_drvdata(tr->video_dev, tr);
++
++      platform_set_drvdata(pdev, tr);
++      return 0;
++
++err_video_req:
++      if (tr->video_dev->minor != -1)
++              video_unregister_device(tr->video_dev);
++      else
++              video_device_release(tr->video_dev);
++      iounmap(tr->membase);
++err_ioremap:
++      kfree(tr);
++err_alloc:
++      release_mem_region(iomem->start, resource_size(iomem));
++err:
++      printk(KERN_ERR DRIVER_NAME ": Failed to register: %d\n", err);
++
++      return err;
++}
++
++static int timbradio_remove(struct platform_device *pdev)
++{
++      struct resource *iomem = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++      struct timbradio *tr = platform_get_drvdata(pdev);
++
++      if (tr->video_dev->minor != -1)
++              video_unregister_device(tr->video_dev);
++      else
++              video_device_release(tr->video_dev);
++
++      if (tr->sd_tuner) {
++              module_put(tr->tuner_owner);
++              module_put(tr->dsp_owner);
++      }
++
++      iounmap(tr->membase);
++      release_mem_region(iomem->start, resource_size(iomem));
++      kfree(tr);
++
++      return 0;
++}
++
++static struct platform_driver timbradio_platform_driver = {
++      .driver = {
++              .name   = DRIVER_NAME,
++              .owner  = THIS_MODULE,
++      },
++      .probe          = timbradio_probe,
++      .remove         = timbradio_remove,
++};
++
++/*--------------------------------------------------------------------------*/
++
++static int __init timbradio_init(void)
++{
++      return platform_driver_register(&timbradio_platform_driver);
++}
++
++static void __exit timbradio_exit(void)
++{
++      platform_driver_unregister(&timbradio_platform_driver);
++}
++
++module_init(timbradio_init);
++module_exit(timbradio_exit);
++
++MODULE_DESCRIPTION("Timberdale Radio driver");
++MODULE_AUTHOR("Mocean Laboratories <info@mocean-labs.com>");
++MODULE_LICENSE("GPL v2");
++MODULE_ALIAS("platform:"DRIVER_NAME);
++
+diff -uNr linux-2.6.31/drivers/media/radio/saa7706h.c linux-2.6.31.new/drivers/media/radio/saa7706h.c
+--- linux-2.6.31/drivers/media/radio/saa7706h.c        1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/media/radio/saa7706h.c    2009-10-23 11:17:28.000000000 -0700
+@@ -0,0 +1,496 @@
++/*
++ * saa7706.c Philips SAA7706H Car Radio DSP driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/module.h>
++#include <linux/init.h>
++#include <linux/errno.h>
++#include <linux/kernel.h>
++#include <linux/interrupt.h>
++#include <linux/i2c.h>
++#include <linux/i2c-id.h>
++#include <media/v4l2-ioctl.h>
++#include <media/v4l2-device.h>
++#include <media/v4l2-chip-ident.h>
++
++#define DRIVER_NAME "saa7706h"
++
++/* the I2C memory map looks like this
++
++      $1C00 - $FFFF Not Used
++      $2200 - $3FFF Reserved YRAM (DSP2) space
++      $2000 - $21FF YRAM (DSP2)
++      $1FF0 - $1FFF Hardware Registers
++      $1280 - $1FEF Reserved XRAM (DSP2) space
++      $1000 - $127F XRAM (DSP2)
++      $0FFF        DSP CONTROL
++      $0A00 - $0FFE Reserved
++      $0980 - $09FF Reserved YRAM (DSP1) space
++      $0800 - $097F YRAM (DSP1)
++      $0200 - $07FF Not Used
++      $0180 - $01FF Reserved XRAM (DSP1) space
++      $0000 - $017F XRAM (DSP1)
++*/
++
++#define SAA7706H_REG_CTRL             0x0fff
++#define SAA7706H_CTRL_BYP_PLL         0x0001
++#define SAA7706H_CTRL_PLL_DIV_MASK    0x003e
++#define SAA7706H_CTRL_PLL3_62975MHZ   0x003e
++#define SAA7706H_CTRL_DSP_TURBO               0x0040
++#define SAA7706H_CTRL_PC_RESET_DSP1   0x0080
++#define SAA7706H_CTRL_PC_RESET_DSP2   0x0100
++#define SAA7706H_CTRL_DSP1_ROM_EN_MASK        0x0600
++#define SAA7706H_CTRL_DSP1_FUNC_PROM  0x0000
++#define SAA7706H_CTRL_DSP2_ROM_EN_MASK        0x1800
++#define SAA7706H_CTRL_DSP2_FUNC_PROM  0x0000
++#define SAA7706H_CTRL_DIG_SIL_INTERPOL        0x8000
++
++#define SAA7706H_REG_EVALUATION                       0x1ff0
++#define SAA7706H_EVAL_DISABLE_CHARGE_PUMP     0x000001
++#define SAA7706H_EVAL_DCS_CLOCK                       0x000002
++#define SAA7706H_EVAL_GNDRC1_ENABLE           0x000004
++#define SAA7706H_EVAL_GNDRC2_ENABLE           0x000008
++
++#define SAA7706H_REG_CL_GEN1                  0x1ff3
++#define SAA7706H_CL_GEN1_MIN_LOOPGAIN_MASK    0x00000f
++#define SAA7706H_CL_GEN1_LOOPGAIN_MASK                0x0000f0
++#define SAA7706H_CL_GEN1_COARSE_RATION                0xffff00
++
++#define SAA7706H_REG_CL_GEN2                  0x1ff4
++#define SAA7706H_CL_GEN2_WSEDGE_FALLING               0x000001
++#define SAA7706H_CL_GEN2_STOP_VCO             0x000002
++#define SAA7706H_CL_GEN2_FRERUN                       0x000004
++#define SAA7706H_CL_GEN2_ADAPTIVE             0x000008
++#define SAA7706H_CL_GEN2_FINE_RATIO_MASK      0x0ffff0
++
++#define SAA7706H_REG_CL_GEN4          0x1ff6
++#define SAA7706H_CL_GEN4_BYPASS_PLL1  0x001000
++#define SAA7706H_CL_GEN4_PLL1_DIV_MASK        0x03e000
++#define SAA7706H_CL_GEN4_DSP1_TURBO   0x040000
++
++#define SAA7706H_REG_SEL      0x1ff7
++#define SAA7706H_SEL_DSP2_SRCA_MASK   0x000007
++#define SAA7706H_SEL_DSP2_FMTA_MASK   0x000031
++#define SAA7706H_SEL_DSP2_SRCB_MASK   0x0001c0
++#define SAA7706H_SEL_DSP2_FMTB_MASK   0x000e00
++#define SAA7706H_SEL_DSP1_SRC_MASK    0x003000
++#define SAA7706H_SEL_DSP1_FMT_MASK    0x01c003
++#define SAA7706H_SEL_SPDIF2           0x020000
++#define SAA7706H_SEL_HOST_IO_FMT_MASK 0x1c0000
++#define SAA7706H_SEL_EN_HOST_IO               0x200000
++
++#define SAA7706H_REG_IAC              0x1ff8
++#define SAA7706H_REG_CLK_SET          0x1ff9
++#define SAA7706H_REG_CLK_COEFF                0x1ffa
++#define SAA7706H_REG_INPUT_SENS               0x1ffb
++#define SAA7706H_INPUT_SENS_RDS_VOL_MASK      0x0003f
++#define SAA7706H_INPUT_SENS_FM_VOL_MASK               0x00fc0
++#define SAA7706H_INPUT_SENS_FM_MPX            0x01000
++#define SAA7706H_INPUT_SENS_OFF_FILTER_A_EN   0x02000
++#define SAA7706H_INPUT_SENS_OFF_FILTER_B_EN   0x04000
++#define SAA7706H_REG_PHONE_NAV_AUDIO  0x1ffc
++#define SAA7706H_REG_IO_CONF_DSP2     0x1ffd
++#define SAA7706H_REG_STATUS_DSP2      0x1ffe
++#define SAA7706H_REG_PC_DSP2          0x1fff
++
++#define SAA7706H_DSP1_MOD0    0x0800
++#define SAA7706H_DSP1_ROM_VER 0x097f
++#define SAA7706H_DSP2_MPTR0   0x1000
++
++#define SAA7706H_DSP1_MODPNTR 0x0000
++
++#define SAA7706H_DSP2_XMEM_CONTLLCW   0x113e
++#define SAA7706H_DSP2_XMEM_BUSAMP     0x114a
++#define SAA7706H_DSP2_XMEM_FDACPNTR   0x11f9
++#define SAA7706H_DSP2_XMEM_IIS1PNTR   0x11fb
++
++#define SAA7706H_DSP2_YMEM_PVGA               0x212a
++#define SAA7706H_DSP2_YMEM_PVAT1      0x212b
++#define SAA7706H_DSP2_YMEM_PVAT               0x212c
++#define SAA7706H_DSP2_YMEM_ROM_VER    0x21ff
++
++#define SUPPORTED_DSP1_ROM_VER                0x667
++
++struct saa7706h_state {
++      struct v4l2_subdev sd;
++      unsigned muted;
++};
++
++static inline struct saa7706h_state *to_state(struct v4l2_subdev *sd)
++{
++      return container_of(sd, struct saa7706h_state, sd);
++}
++
++static int saa7706h_i2c_send(struct i2c_client *client, const u8 *data, int len)
++{
++      int err = i2c_master_send(client, data, len);
++      if (err == len)
++              return 0;
++      else if (err > 0)
++              return -EIO;
++      return err;
++}
++
++static int saa7706h_i2c_transfer(struct i2c_client *client,
++      struct i2c_msg *msgs, int num)
++{
++      int err = i2c_transfer(client->adapter, msgs, num);
++      if (err == num)
++              return 0;
++      else if (err > 0)
++              return -EIO;
++      else
++              return err;
++}
++
++static int saa7706h_set_reg24(struct i2c_client *client, u16 reg, u32 val)
++{
++      u8 buf[5];
++      int pos = 0;
++
++      buf[pos++] = reg >> 8;
++      buf[pos++] = reg;
++      buf[pos++] = val >> 16;
++      buf[pos++] = val >> 8;
++      buf[pos++] = val;
++
++      return saa7706h_i2c_send(client, buf, pos);
++}
++
++static int saa7706h_set_reg16(struct i2c_client *client, u16 reg, u16 val)
++{
++      u8 buf[4];
++      int pos = 0;
++
++      buf[pos++] = reg >> 8;
++      buf[pos++] = reg;
++      buf[pos++] = val >> 8;
++      buf[pos++] = val;
++
++      return saa7706h_i2c_send(client, buf, pos);
++}
++
++static int saa7706h_get_reg16(struct i2c_client *client, u16 reg)
++{
++      u8 buf[2];
++      int err;
++      u8 regaddr[] = {reg >> 8, reg};
++      struct i2c_msg msg[] = { {client->addr, 0, sizeof(regaddr), regaddr},
++                              {client->addr, I2C_M_RD, sizeof(buf), buf} };
++
++      err = saa7706h_i2c_transfer(client, msg, ARRAY_SIZE(msg));
++      if (err)
++              return err;
++
++      return buf[0] << 8 | buf[1];
++}
++
++static int saa7706h_unmute(struct v4l2_subdev *sd)
++{
++      struct i2c_client *client = v4l2_get_subdevdata(sd);
++      struct saa7706h_state *state = to_state(sd);
++      int err;
++
++      err = saa7706h_set_reg16(client, SAA7706H_REG_CTRL,
++              SAA7706H_CTRL_PLL3_62975MHZ | SAA7706H_CTRL_PC_RESET_DSP1 |
++              SAA7706H_CTRL_PC_RESET_DSP2);
++      if (err)
++              goto out;
++
++      /* newer versions of the chip requires a small sleep after reset */
++      msleep(1);
++
++      err = saa7706h_set_reg16(client, SAA7706H_REG_CTRL,
++              SAA7706H_CTRL_PLL3_62975MHZ);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_EVALUATION, 0);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_CL_GEN1, 0x040022);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_CL_GEN2,
++              SAA7706H_CL_GEN2_WSEDGE_FALLING);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_CL_GEN4, 0x024080);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_SEL, 0x200080);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_IAC, 0xf4caed);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_CLK_SET, 0x124334);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_CLK_COEFF, 0x004a1a);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_INPUT_SENS, 0x0071c7);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_PHONE_NAV_AUDIO,
++              0x0e22ff);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_IO_CONF_DSP2, 0x001ff8);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_STATUS_DSP2, 0x080003);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_REG_PC_DSP2, 0x000004);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg16(client, SAA7706H_DSP1_MOD0, 0x0c6c);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP2_MPTR0, 0x000b4b);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP1_MODPNTR, 0x000600);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP1_MODPNTR, 0x0000c0);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP2_XMEM_CONTLLCW, 0x000819);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP2_XMEM_CONTLLCW, 0x00085a);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP2_XMEM_BUSAMP, 0x7fffff);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP2_XMEM_FDACPNTR, 0x2000cb);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP2_XMEM_IIS1PNTR, 0x2000cb);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg16(client, SAA7706H_DSP2_YMEM_PVGA, 0x0f80);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg16(client, SAA7706H_DSP2_YMEM_PVAT1, 0x0800);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg16(client, SAA7706H_DSP2_YMEM_PVAT, 0x0800);
++      if (err)
++              goto out;
++
++      err = saa7706h_set_reg24(client, SAA7706H_DSP2_XMEM_CONTLLCW, 0x000905);
++      if (err)
++              goto out;
++
++      state->muted = 0;
++out:
++      return err;
++}
++
++static int saa7706h_mute(struct v4l2_subdev *sd)
++{
++      struct i2c_client *client = v4l2_get_subdevdata(sd);
++      struct saa7706h_state *state = to_state(sd);
++      int err;
++
++      err = saa7706h_set_reg16(client, SAA7706H_REG_CTRL,
++              SAA7706H_CTRL_PLL3_62975MHZ | SAA7706H_CTRL_PC_RESET_DSP1 |
++              SAA7706H_CTRL_PC_RESET_DSP2);
++      if (err)
++              goto out;
++
++      state->muted = 1;
++out:
++      return err;
++}
++
++static int saa7706h_queryctrl(struct v4l2_subdev *sd, struct v4l2_queryctrl *qc)
++{
++      switch (qc->id) {
++      case V4L2_CID_AUDIO_MUTE:
++              return v4l2_ctrl_query_fill(qc, 0, 1, 1, 1);
++      }
++      return -EINVAL;
++}
++
++static int saa7706h_g_ctrl(struct v4l2_subdev *sd, struct v4l2_control *ctrl)
++{
++      struct saa7706h_state *state = to_state(sd);
++
++      switch (ctrl->id) {
++      case V4L2_CID_AUDIO_MUTE:
++              ctrl->value = state->muted;
++              return 0;
++      }
++      return -EINVAL;
++}
++
++static int saa7706h_s_ctrl(struct v4l2_subdev *sd, struct v4l2_control *ctrl)
++{
++      switch (ctrl->id) {
++      case V4L2_CID_AUDIO_MUTE:
++              if (ctrl->value)
++                      return saa7706h_mute(sd);
++              else
++                      return saa7706h_unmute(sd);
++      }
++      return -EINVAL;
++}
++
++static int saa7706h_g_chip_ident(struct v4l2_subdev *sd,
++      struct v4l2_dbg_chip_ident *chip)
++{
++      struct i2c_client *client = v4l2_get_subdevdata(sd);
++
++      return v4l2_chip_ident_i2c_client(client, chip, V4L2_IDENT_SAA7706H, 0);
++}
++
++static const struct v4l2_subdev_core_ops saa7706h_core_ops = {
++      .g_chip_ident = saa7706h_g_chip_ident,
++      .queryctrl = saa7706h_queryctrl,
++      .g_ctrl = saa7706h_g_ctrl,
++      .s_ctrl = saa7706h_s_ctrl,
++};
++
++static const struct v4l2_subdev_ops saa7706h_ops = {
++      .core = &saa7706h_core_ops,
++};
++
++/*
++ * Generic i2c probe
++ * concerning the addresses: i2c wants 7 bit (without the r/w bit), so '>>1'
++ */
++
++static int __devinit saa7706h_probe(struct i2c_client *client,
++                      const struct i2c_device_id *id)
++{
++      struct saa7706h_state *state;
++      struct v4l2_subdev *sd;
++      int err;
++
++      /* Check if the adapter supports the needed features */
++      if (!i2c_check_functionality(client->adapter, I2C_FUNC_SMBUS_BYTE_DATA))
++              return -EIO;
++
++      v4l_info(client, "chip found @ 0x%02x (%s)\n",
++                      client->addr << 1, client->adapter->name);
++
++      state = kmalloc(sizeof(struct saa7706h_state), GFP_KERNEL);
++      if (state == NULL)
++              return -ENOMEM;
++      sd = &state->sd;
++      v4l2_i2c_subdev_init(sd, client, &saa7706h_ops);
++
++      /* check the rom versions */
++      err = saa7706h_get_reg16(client, SAA7706H_DSP1_ROM_VER);
++      if (err < 0)
++              goto err;
++      if (err != SUPPORTED_DSP1_ROM_VER)
++              printk(KERN_WARNING DRIVER_NAME
++                      ": Unknown DSP1 ROM code version: 0x%x\n", err);
++
++      state->muted = 1;
++
++      /* startup in a muted state */
++      err = saa7706h_mute(sd);
++      if (err)
++              goto err;
++
++      return 0;
++
++err:
++      v4l2_device_unregister_subdev(sd);
++      kfree(to_state(sd));
++
++      printk(KERN_ERR DRIVER_NAME ": Failed to probe: %d\n", err);
++
++      return err;
++}
++
++static int __devexit saa7706h_remove(struct i2c_client *client)
++{
++      struct v4l2_subdev *sd = i2c_get_clientdata(client);
++
++      saa7706h_mute(sd);
++      v4l2_device_unregister_subdev(sd);
++      kfree(to_state(sd));
++      return 0;
++}
++
++static const struct i2c_device_id saa7706h_id[] = {
++      {DRIVER_NAME, 0},
++      {},
++};
++
++MODULE_DEVICE_TABLE(i2c, saa7706h_id);
++
++static struct i2c_driver saa7706h_driver = {
++      .driver = {
++              .owner  = THIS_MODULE,
++              .name   = DRIVER_NAME,
++      },
++      .probe          = saa7706h_probe,
++      .remove         = saa7706h_remove,
++      .id_table       = saa7706h_id,
++};
++
++static __init int saa7706h_init(void)
++{
++      return i2c_add_driver(&saa7706h_driver);
++}
++
++static __exit void saa7706h_exit(void)
++{
++      i2c_del_driver(&saa7706h_driver);
++}
++
++module_init(saa7706h_init);
++module_exit(saa7706h_exit);
++
++MODULE_DESCRIPTION("SAA7706H Car Radio DSP driver");
++MODULE_AUTHOR("Mocean Laboratories");
++MODULE_LICENSE("GPL v2");
++
+diff -uNr linux-2.6.31/drivers/media/radio/tef6862.c linux-2.6.31.new/drivers/media/radio/tef6862.c
+--- linux-2.6.31/drivers/media/radio/tef6862.c 1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/media/radio/tef6862.c     2009-10-23 11:17:28.000000000 -0700
+@@ -0,0 +1,232 @@
++/*
++ * tef6862.c Philips TEF6862 Car Radio Enhanced Selectivity Tuner
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/module.h>
++#include <linux/init.h>
++#include <linux/errno.h>
++#include <linux/kernel.h>
++#include <linux/interrupt.h>
++#include <linux/i2c.h>
++#include <linux/i2c-id.h>
++#include <media/v4l2-ioctl.h>
++#include <media/v4l2-device.h>
++#include <media/v4l2-chip-ident.h>
++
++#define DRIVER_NAME "tef6862"
++
++#define FREQ_MUL 16000
++
++#define TEF6862_LO_FREQ (875 * FREQ_MUL / 10)
++#define TEF6862_HI_FREQ (108 * FREQ_MUL)
++
++/* Write mode sub addresses */
++#define WM_SUB_BANDWIDTH      0x0
++#define WM_SUB_PLLM           0x1
++#define WM_SUB_PLLL           0x2
++#define WM_SUB_DAA            0x3
++#define WM_SUB_AGC            0x4
++#define WM_SUB_BAND           0x5
++#define WM_SUB_CONTROL                0x6
++#define WM_SUB_LEVEL          0x7
++#define WM_SUB_IFCF           0x8
++#define WM_SUB_IFCAP          0x9
++#define WM_SUB_ACD            0xA
++#define WM_SUB_TEST           0xF
++
++/* Different modes of the MSA register */
++#define MODE_BUFFER           0x0
++#define MODE_PRESET           0x1
++#define MODE_SEARCH           0x2
++#define MODE_AF_UPDATE                0x3
++#define MODE_JUMP             0x4
++#define MODE_CHECK            0x5
++#define MODE_LOAD             0x6
++#define MODE_END              0x7
++#define MODE_SHIFT            5
++
++struct tef6862_state {
++      struct v4l2_subdev sd;
++      unsigned long freq;
++};
++
++static inline struct tef6862_state *to_state(struct v4l2_subdev *sd)
++{
++      return container_of(sd, struct tef6862_state, sd);
++}
++
++static u16 tef6862_sigstr(struct i2c_client *client)
++{
++      u8 buf[4];
++      int err = i2c_master_recv(client, buf, sizeof(buf));
++      if (err == sizeof(buf))
++              return buf[3] << 8;
++      return 0;
++}
++
++static int tef6862_g_tuner(struct v4l2_subdev *sd, struct v4l2_tuner *v)
++{
++      if (v->index > 0)
++              return -EINVAL;
++
++      /* only support FM for now */
++      strlcpy(v->name, "FM", sizeof(v->name));
++      v->type = V4L2_TUNER_RADIO;
++      v->rangelow = TEF6862_LO_FREQ;
++      v->rangehigh = TEF6862_HI_FREQ;
++      v->rxsubchans = V4L2_TUNER_SUB_MONO;
++      v->capability = V4L2_TUNER_CAP_LOW;
++      v->audmode = V4L2_TUNER_MODE_STEREO;
++      v->signal = tef6862_sigstr(v4l2_get_subdevdata(sd));
++
++      return 0;
++}
++
++static int tef6862_s_tuner(struct v4l2_subdev *sd, struct v4l2_tuner *v)
++{
++      return v->index ? -EINVAL : 0;
++}
++
++static int tef6862_s_frequency(struct v4l2_subdev *sd, struct v4l2_frequency *f)
++{
++      struct tef6862_state *state = to_state(sd);
++      struct i2c_client *client = v4l2_get_subdevdata(sd);
++      u16 pll;
++      u8 i2cmsg[3];
++      int err;
++
++      if (f->tuner != 0)
++              return -EINVAL;
++
++      pll = 1964 + ((f->frequency - TEF6862_LO_FREQ) * 20) / FREQ_MUL;
++      i2cmsg[0] = (MODE_PRESET << MODE_SHIFT) | WM_SUB_PLLM;
++      i2cmsg[1] = (pll >> 8) & 0xff;
++      i2cmsg[2] = pll & 0xff;
++
++      err = i2c_master_send(client, i2cmsg, sizeof(i2cmsg));
++      if (!err)
++              state->freq = f->frequency;
++      return err;
++}
++
++static int tef6862_g_frequency(struct v4l2_subdev *sd, struct v4l2_frequency *f)
++{
++      struct tef6862_state *state = to_state(sd);
++
++      if (f->tuner != 0)
++              return -EINVAL;
++      f->type = V4L2_TUNER_RADIO;
++      f->frequency = state->freq;
++      return 0;
++}
++
++static int tef6862_g_chip_ident(struct v4l2_subdev *sd,
++      struct v4l2_dbg_chip_ident *chip)
++{
++      struct i2c_client *client = v4l2_get_subdevdata(sd);
++
++      return v4l2_chip_ident_i2c_client(client, chip, V4L2_IDENT_TEF6862, 0);
++}
++
++static const struct v4l2_subdev_tuner_ops tef6862_tuner_ops = {
++      .g_tuner = tef6862_g_tuner,
++      .s_tuner = tef6862_s_tuner,
++      .s_frequency = tef6862_s_frequency,
++      .g_frequency = tef6862_g_frequency,
++};
++
++static const struct v4l2_subdev_core_ops tef6862_core_ops = {
++      .g_chip_ident = tef6862_g_chip_ident,
++};
++
++static const struct v4l2_subdev_ops tef6862_ops = {
++      .core = &tef6862_core_ops,
++      .tuner = &tef6862_tuner_ops,
++};
++
++/*
++ * Generic i2c probe
++ * concerning the addresses: i2c wants 7 bit (without the r/w bit), so '>>1'
++ */
++
++static int __devinit tef6862_probe(struct i2c_client *client,
++                      const struct i2c_device_id *id)
++{
++      struct tef6862_state *state;
++      struct v4l2_subdev *sd;
++
++      /* Check if the adapter supports the needed features */
++      if (!i2c_check_functionality(client->adapter, I2C_FUNC_SMBUS_BYTE_DATA))
++              return -EIO;
++
++      v4l_info(client, "chip found @ 0x%02x (%s)\n",
++                      client->addr << 1, client->adapter->name);
++
++      state = kmalloc(sizeof(struct tef6862_state), GFP_KERNEL);
++      if (state == NULL)
++              return -ENOMEM;
++      state->freq = TEF6862_LO_FREQ;
++
++      sd = &state->sd;
++      v4l2_i2c_subdev_init(sd, client, &tef6862_ops);
++
++      return 0;
++}
++
++static int __devexit tef6862_remove(struct i2c_client *client)
++{
++      struct v4l2_subdev *sd = i2c_get_clientdata(client);
++
++      v4l2_device_unregister_subdev(sd);
++      kfree(to_state(sd));
++      return 0;
++}
++
++static const struct i2c_device_id tef6862_id[] = {
++      {DRIVER_NAME, 0},
++      {},
++};
++
++MODULE_DEVICE_TABLE(i2c, tef6862_id);
++
++static struct i2c_driver tef6862_driver = {
++      .driver = {
++              .owner  = THIS_MODULE,
++              .name   = DRIVER_NAME,
++      },
++      .probe          = tef6862_probe,
++      .remove         = tef6862_remove,
++      .id_table       = tef6862_id,
++};
++
++static __init int tef6862_init(void)
++{
++      return i2c_add_driver(&tef6862_driver);
++}
++
++static __exit void tef6862_exit(void)
++{
++      i2c_del_driver(&tef6862_driver);
++}
++
++module_init(tef6862_init);
++module_exit(tef6862_exit);
++
++MODULE_DESCRIPTION("TEF6862 Car Radio Enhanced Selectivity Tuner");
++MODULE_AUTHOR("Mocean Laboratories");
++MODULE_LICENSE("GPL v2");
++
+diff -uNr linux-2.6.31/drivers/media/video/adv7180.c linux-2.6.31.new/drivers/media/video/adv7180.c
+--- linux-2.6.31/drivers/media/video/adv7180.c 1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/media/video/adv7180.c     2009-10-23 11:17:28.000000000 -0700
+@@ -0,0 +1,475 @@
++/*
++ * adv7180.c Analog Devices ADV7180 video decoder driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/module.h>
++#include <linux/init.h>
++#include <linux/errno.h>
++#include <linux/kernel.h>
++#include <linux/interrupt.h>
++#include <linux/i2c.h>
++#include <linux/i2c-id.h>
++#include <media/v4l2-ioctl.h>
++#include <linux/videodev2.h>
++#include <media/v4l2-device.h>
++#include <media/v4l2-chip-ident.h>
++#include <linux/mutex.h>
++
++#define DRIVER_NAME "adv7180"
++
++#define ADV7180_INPUT_CONTROL_REG                     0x00
++#define ADV7180_INPUT_CONTROL_AD_PAL_BG_NTSC_J_SECAM  0x00
++#define ADV7180_INPUT_CONTROL_AD_PAL_BG_NTSC_J_SECAM_PED 0x10
++#define ADV7180_INPUT_CONTROL_AD_PAL_N_NTSC_J_SECAM   0x20
++#define ADV7180_INPUT_CONTROL_AD_PAL_N_NTSC_M_SECAM   0x30
++#define ADV7180_INPUT_CONTROL_NTSC_J                  0x40
++#define ADV7180_INPUT_CONTROL_NTSC_M                  0x50
++#define ADV7180_INPUT_CONTROL_PAL60                   0x60
++#define ADV7180_INPUT_CONTROL_NTSC_443                        0x70
++#define ADV7180_INPUT_CONTROL_PAL_BG                  0x80
++#define ADV7180_INPUT_CONTROL_PAL_N                   0x90
++#define ADV7180_INPUT_CONTROL_PAL_M                   0xa0
++#define ADV7180_INPUT_CONTROL_PAL_M_PED                       0xb0
++#define ADV7180_INPUT_CONTROL_PAL_COMB_N              0xc0
++#define ADV7180_INPUT_CONTROL_PAL_COMB_N_PED          0xd0
++#define ADV7180_INPUT_CONTROL_PAL_SECAM                       0xe0
++#define ADV7180_INPUT_CONTROL_PAL_SECAM_PED           0xf0
++
++#define ADV7180_EXTENDED_OUTPUT_CONTROL_REG           0x04
++#define ADV7180_EXTENDED_OUTPUT_CONTROL_NTSCDIS               0xC5
++
++#define ADV7180_AUTODETECT_ENABLE_REG                 0x07
++#define ADV7180_AUTODETECT_DEFAULT                    0x7f
++
++#define ADV7180_ADI_CTRL_REG                          0x0e
++#define ADV7180_ADI_CTRL_IRQ_SPACE                    0x20
++
++#define ADV7180_STATUS1_REG                           0x10
++#define ADV7180_STATUS1_IN_LOCK               0x01
++#define ADV7180_STATUS1_AUTOD_MASK    0x70
++#define ADV7180_STATUS1_AUTOD_NTSM_M_J        0x00
++#define ADV7180_STATUS1_AUTOD_NTSC_4_43 0x10
++#define ADV7180_STATUS1_AUTOD_PAL_M   0x20
++#define ADV7180_STATUS1_AUTOD_PAL_60  0x30
++#define ADV7180_STATUS1_AUTOD_PAL_B_G 0x40
++#define ADV7180_STATUS1_AUTOD_SECAM   0x50
++#define ADV7180_STATUS1_AUTOD_PAL_COMB        0x60
++#define ADV7180_STATUS1_AUTOD_SECAM_525       0x70
++
++#define ADV7180_IDENT_REG 0x11
++#define ADV7180_ID_7180 0x18
++
++#define ADV7180_ICONF1_ADI            0x40
++#define ADV7180_ICONF1_ACTIVE_LOW     0x01
++#define ADV7180_ICONF1_PSYNC_ONLY     0x10
++#define ADV7180_ICONF1_ACTIVE_TO_CLR  0xC0
++
++#define ADV7180_IRQ1_LOCK     0x01
++#define ADV7180_IRQ1_UNLOCK   0x02
++#define ADV7180_ISR1_ADI      0x42
++#define ADV7180_ICR1_ADI      0x43
++#define ADV7180_IMR1_ADI      0x44
++#define ADV7180_IMR2_ADI      0x48
++#define ADV7180_IRQ3_AD_CHANGE        0x08
++#define ADV7180_ISR3_ADI      0x4A
++#define ADV7180_ICR3_ADI      0x4B
++#define ADV7180_IMR3_ADI      0x4C
++#define ADV7180_IMR4_ADI      0x50
++
++#define ADV7180_NTSC_V_BIT_END_REG    0xE6
++#define ADV7180_NTSC_V_BIT_END_MANUAL_NVEND   0x4F
++
++struct adv7180_state {
++      struct v4l2_subdev      sd;
++      struct work_struct      work;
++      struct mutex            mutex; /* mutual excl. when accessing chip */
++      int                     irq;
++      v4l2_std_id             curr_norm;
++      bool                    autodetect;
++};
++
++static v4l2_std_id adv7180_std_to_v4l2(u8 status1)
++{
++      switch (status1 & ADV7180_STATUS1_AUTOD_MASK) {
++      case ADV7180_STATUS1_AUTOD_NTSM_M_J:
++              return V4L2_STD_NTSC;
++      case ADV7180_STATUS1_AUTOD_NTSC_4_43:
++              return V4L2_STD_NTSC_443;
++      case ADV7180_STATUS1_AUTOD_PAL_M:
++              return V4L2_STD_PAL_M;
++      case ADV7180_STATUS1_AUTOD_PAL_60:
++              return V4L2_STD_PAL_60;
++      case ADV7180_STATUS1_AUTOD_PAL_B_G:
++              return V4L2_STD_PAL;
++      case ADV7180_STATUS1_AUTOD_SECAM:
++              return V4L2_STD_SECAM;
++      case ADV7180_STATUS1_AUTOD_PAL_COMB:
++              return V4L2_STD_PAL_Nc | V4L2_STD_PAL_N;
++      case ADV7180_STATUS1_AUTOD_SECAM_525:
++              return V4L2_STD_SECAM;
++      default:
++              return V4L2_STD_UNKNOWN;
++      }
++}
++
++static int v4l2_std_to_adv7180(v4l2_std_id std)
++{
++      if (std == V4L2_STD_PAL_60)
++              return ADV7180_INPUT_CONTROL_PAL60;
++      if (std == V4L2_STD_NTSC_443)
++              return ADV7180_INPUT_CONTROL_NTSC_443;
++      if (std == V4L2_STD_PAL_N)
++              return ADV7180_INPUT_CONTROL_PAL_N;
++      if (std == V4L2_STD_PAL_M)
++              return ADV7180_INPUT_CONTROL_PAL_M;
++      if (std == V4L2_STD_PAL_Nc)
++              return ADV7180_INPUT_CONTROL_PAL_COMB_N;
++
++      /* pal is a combination of several variants */
++      if (std & V4L2_STD_PAL)
++              return ADV7180_INPUT_CONTROL_PAL_BG;
++      if (std & V4L2_STD_NTSC)
++              return ADV7180_INPUT_CONTROL_NTSC_M;
++      if (std & V4L2_STD_SECAM)
++              return ADV7180_INPUT_CONTROL_PAL_SECAM;
++
++      return -EINVAL;
++}
++
++static u32 adv7180_status_to_v4l2(u8 status1)
++{
++      if (!(status1 & ADV7180_STATUS1_IN_LOCK))
++              return V4L2_IN_ST_NO_SIGNAL;
++
++      return 0;
++}
++
++static int __adv7180_status(struct i2c_client *client, u32 *status,
++      v4l2_std_id *std)
++{
++      int status1 = i2c_smbus_read_byte_data(client, ADV7180_STATUS1_REG);
++
++      if (status1 < 0)
++              return status1;
++
++      if (status)
++              *status = adv7180_status_to_v4l2(status1);
++      if (std)
++              *std = adv7180_std_to_v4l2(status1);
++
++      return 0;
++}
++
++static inline struct adv7180_state *to_state(struct v4l2_subdev *sd)
++{
++      return container_of(sd, struct adv7180_state, sd);
++}
++
++static int adv7180_querystd(struct v4l2_subdev *sd, v4l2_std_id *std)
++{
++      struct adv7180_state *state = to_state(sd);
++      int err = mutex_lock_interruptible(&state->mutex);
++      if (err)
++              return err;
++
++      /* when we are interrupt driven we know the state */
++      if (!state->autodetect || state->irq > 0)
++              *std = state->curr_norm;
++      else
++              err = __adv7180_status(v4l2_get_subdevdata(sd), NULL, std);
++
++      mutex_unlock(&state->mutex);
++      return err;
++}
++
++static int adv7180_s_std(struct v4l2_subdev *sd, v4l2_std_id std)
++{
++      struct adv7180_state *state = to_state(sd);
++      struct i2c_client *client = v4l2_get_subdevdata(sd);
++      int ret = mutex_lock_interruptible(&state->mutex);
++      if (ret)
++              return ret;
++
++      /* all standards -> autodetect */
++      if (std == V4L2_STD_ALL) {
++              ret = i2c_smbus_write_byte_data(client,
++                      ADV7180_INPUT_CONTROL_REG,
++                      ADV7180_INPUT_CONTROL_AD_PAL_BG_NTSC_J_SECAM);
++              if (ret < 0)
++                      goto out;
++
++              __adv7180_status(client, NULL, &state->curr_norm);
++              state->autodetect = true;
++      } else {
++              ret = v4l2_std_to_adv7180(std);
++              if (ret < 0)
++                      goto out;
++
++              ret = i2c_smbus_write_byte_data(client,
++                      ADV7180_INPUT_CONTROL_REG, ret);
++              if (ret < 0)
++                      goto out;
++
++              state->curr_norm = std;
++              state->autodetect = false;
++      }
++      ret = 0;
++out:
++      mutex_unlock(&state->mutex);
++      return ret;
++}
++
++static int adv7180_g_input_status(struct v4l2_subdev *sd, u32 *status)
++{
++      struct adv7180_state *state = to_state(sd);
++      int ret = mutex_lock_interruptible(&state->mutex);
++      if (ret)
++              return ret;
++
++      ret = __adv7180_status(v4l2_get_subdevdata(sd), status, NULL);
++      mutex_unlock(&state->mutex);
++      return ret;
++}
++
++static int adv7180_g_chip_ident(struct v4l2_subdev *sd,
++      struct v4l2_dbg_chip_ident *chip)
++{
++      struct i2c_client *client = v4l2_get_subdevdata(sd);
++
++      return v4l2_chip_ident_i2c_client(client, chip, V4L2_IDENT_ADV7180, 0);
++}
++
++static const struct v4l2_subdev_video_ops adv7180_video_ops = {
++      .querystd = adv7180_querystd,
++      .g_input_status = adv7180_g_input_status,
++};
++
++static const struct v4l2_subdev_core_ops adv7180_core_ops = {
++      .g_chip_ident = adv7180_g_chip_ident,
++      .s_std = adv7180_s_std,
++};
++
++static const struct v4l2_subdev_ops adv7180_ops = {
++      .core = &adv7180_core_ops,
++      .video = &adv7180_video_ops,
++};
++
++static void adv7180_work(struct work_struct *work)
++{
++      struct adv7180_state *state = container_of(work, struct adv7180_state,
++              work);
++      struct i2c_client *client = v4l2_get_subdevdata(&state->sd);
++      u8 isr3;
++
++      mutex_lock(&state->mutex);
++      i2c_smbus_write_byte_data(client, ADV7180_ADI_CTRL_REG,
++              ADV7180_ADI_CTRL_IRQ_SPACE);
++      isr3 = i2c_smbus_read_byte_data(client, ADV7180_ISR3_ADI);
++      /* clear */
++      i2c_smbus_write_byte_data(client, ADV7180_ICR3_ADI, isr3);
++      i2c_smbus_write_byte_data(client, ADV7180_ADI_CTRL_REG, 0);
++
++      if (isr3 & ADV7180_IRQ3_AD_CHANGE && state->autodetect)
++              __adv7180_status(client, NULL, &state->curr_norm);
++      mutex_unlock(&state->mutex);
++
++      enable_irq(state->irq);
++}
++
++static irqreturn_t adv7180_irq(int irq, void *devid)
++{
++      struct adv7180_state *state = devid;
++
++      schedule_work(&state->work);
++
++      disable_irq_nosync(state->irq);
++
++      return IRQ_HANDLED;
++}
++
++/*
++ * Generic i2c probe
++ * concerning the addresses: i2c wants 7 bit (without the r/w bit), so '>>1'
++ */
++
++static int __devinit adv7180_probe(struct i2c_client *client,
++                      const struct i2c_device_id *id)
++{
++      struct adv7180_state *state;
++      struct v4l2_subdev *sd;
++      int ret;
++
++      /* Check if the adapter supports the needed features */
++      if (!i2c_check_functionality(client->adapter, I2C_FUNC_SMBUS_BYTE_DATA))
++              return -EIO;
++
++      v4l_info(client, "chip found @ 0x%02x (%s)\n",
++                      client->addr << 1, client->adapter->name);
++
++      state = kzalloc(sizeof(struct adv7180_state), GFP_KERNEL);
++      if (state == NULL) {
++              ret = -ENOMEM;
++              goto err;
++      }
++
++      state->irq = client->irq;
++      INIT_WORK(&state->work, adv7180_work);
++      mutex_init(&state->mutex);
++      state->autodetect = true;
++      sd = &state->sd;
++      v4l2_i2c_subdev_init(sd, client, &adv7180_ops);
++
++      /* Initialize adv7180 */
++      /* Enable autodetection */
++      ret = i2c_smbus_write_byte_data(client, ADV7180_INPUT_CONTROL_REG,
++              ADV7180_INPUT_CONTROL_AD_PAL_BG_NTSC_J_SECAM);
++      if (ret < 0)
++              goto err_unreg_subdev;
++
++      ret = i2c_smbus_write_byte_data(client, ADV7180_AUTODETECT_ENABLE_REG,
++              ADV7180_AUTODETECT_DEFAULT);
++      if (ret < 0)
++              goto err_unreg_subdev;
++
++      /* ITU-R BT.656-4 compatible */
++      ret = i2c_smbus_write_byte_data(client,
++              ADV7180_EXTENDED_OUTPUT_CONTROL_REG,
++              ADV7180_EXTENDED_OUTPUT_CONTROL_NTSCDIS);
++      if (ret < 0)
++              goto err_unreg_subdev;
++
++
++      /* Manually set V bit end position in NTSC mode */
++      ret = i2c_smbus_write_byte_data(client,
++              ADV7180_NTSC_V_BIT_END_REG,
++              ADV7180_NTSC_V_BIT_END_MANUAL_NVEND);
++      if (ret < 0)
++              goto err_unreg_subdev;
++
++      /* read current norm */
++      __adv7180_status(client, NULL, &state->curr_norm);
++
++      /* register for interrupts */
++      if (state->irq > 0) {
++              ret = request_irq(state->irq, adv7180_irq, 0, DRIVER_NAME,
++                      state);
++              if (ret)
++                      goto err_unreg_subdev;
++
++              ret = i2c_smbus_write_byte_data(client, ADV7180_ADI_CTRL_REG,
++                      ADV7180_ADI_CTRL_IRQ_SPACE);
++              if (ret < 0)
++                      goto err_unreg_subdev;
++
++              /* config the Interrupt pin to be active low */
++              ret = i2c_smbus_write_byte_data(client, ADV7180_ICONF1_ADI,
++                      ADV7180_ICONF1_ACTIVE_LOW | ADV7180_ICONF1_PSYNC_ONLY);
++              if (ret < 0)
++                      goto err_unreg_subdev;
++
++              ret = i2c_smbus_write_byte_data(client, ADV7180_IMR1_ADI, 0);
++              if (ret < 0)
++                      goto err_unreg_subdev;
++
++              ret = i2c_smbus_write_byte_data(client, ADV7180_IMR2_ADI, 0);
++              if (ret < 0)
++                      goto err_unreg_subdev;
++
++              /* enable AD change interrupts interrupts */
++              ret = i2c_smbus_write_byte_data(client, ADV7180_IMR3_ADI,
++                      ADV7180_IRQ3_AD_CHANGE);
++              if (ret < 0)
++                      goto err_unreg_subdev;
++
++              ret = i2c_smbus_write_byte_data(client, ADV7180_IMR4_ADI, 0);
++              if (ret < 0)
++                      goto err_unreg_subdev;
++
++              ret = i2c_smbus_write_byte_data(client, ADV7180_ADI_CTRL_REG,
++                      0);
++              if (ret < 0)
++                      goto err_unreg_subdev;
++      }
++
++      return 0;
++
++err_unreg_subdev:
++      mutex_destroy(&state->mutex);
++      v4l2_device_unregister_subdev(sd);
++      kfree(state);
++err:
++      printk(KERN_ERR DRIVER_NAME ": Failed to probe: %d\n", ret);
++      return ret;
++}
++
++static int __devexit adv7180_remove(struct i2c_client *client)
++{
++      struct v4l2_subdev *sd = i2c_get_clientdata(client);
++      struct adv7180_state *state = to_state(sd);
++
++      if (state->irq > 0) {
++              free_irq(client->irq, state);
++              if (cancel_work_sync(&state->work)) {
++                      /*
++                       * Work was pending, therefore we need to enable
++                       * IRQ here to balance the disable_irq() done in the
++                       * interrupt handler.
++                       */
++                      enable_irq(state->irq);
++              }
++      }
++
++      mutex_destroy(&state->mutex);
++      v4l2_device_unregister_subdev(sd);
++      kfree(to_state(sd));
++      return 0;
++}
++
++static const struct i2c_device_id adv7180_id[] = {
++      {DRIVER_NAME, 0},
++      {},
++};
++
++MODULE_DEVICE_TABLE(i2c, adv7180_id);
++
++static struct i2c_driver adv7180_driver = {
++      .driver = {
++              .owner  = THIS_MODULE,
++              .name   = DRIVER_NAME,
++      },
++      .probe          = adv7180_probe,
++      .remove         = adv7180_remove,
++      .id_table       = adv7180_id,
++};
++
++static __init int adv7180_init(void)
++{
++      return i2c_add_driver(&adv7180_driver);
++}
++
++static __exit void adv7180_exit(void)
++{
++      i2c_del_driver(&adv7180_driver);
++}
++
++module_init(adv7180_init);
++module_exit(adv7180_exit);
++
++MODULE_DESCRIPTION("Analog Devices ADV7180 video decoder driver");
++MODULE_AUTHOR("Mocean Laboratories");
++MODULE_LICENSE("GPL v2");
++
+diff -uNr linux-2.6.31/drivers/media/video/Kconfig linux-2.6.31.new/drivers/media/video/Kconfig
+--- linux-2.6.31/drivers/media/video/Kconfig   2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/media/video/Kconfig       2009-10-23 11:17:28.000000000 -0700
+@@ -265,6 +265,15 @@
+ comment "Video decoders"
++config VIDEO_ADV7180
++      tristate "Analog Devices ADV7180 decoder"
++      depends on VIDEO_V4L2 && I2C
++      ---help---
++        Support for the Analog Devices ADV7180 video decoder.
++
++        To compile this driver as a module, choose M here: the
++        module will be called adv7180.
++
+ config VIDEO_BT819
+       tristate "BT819A VideoStream decoder"
+       depends on VIDEO_V4L2 && I2C
+@@ -816,6 +825,13 @@
+       ---help---
+         This is a v4l2 driver for the TI OMAP2 camera capture interface
++config VIDEO_TIMBERDALE
++      tristate "Support for timberdale Video In/LogiWIN"
++      depends on VIDEO_V4L2 && MFD_TIMBERDALE_DMA
++      select VIDEO_ADV7180
++      ---help---
++      Add support for the Video In peripherial of the timberdale FPGA.
++
+ #
+ # USB Multimedia device configuration
+ #
+diff -uNr linux-2.6.31/drivers/media/video/Makefile linux-2.6.31.new/drivers/media/video/Makefile
+--- linux-2.6.31/drivers/media/video/Makefile  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/media/video/Makefile      2009-10-23 11:17:27.000000000 -0700
+@@ -45,6 +45,7 @@
+ obj-$(CONFIG_VIDEO_SAA7191) += saa7191.o
+ obj-$(CONFIG_VIDEO_ADV7170) += adv7170.o
+ obj-$(CONFIG_VIDEO_ADV7175) += adv7175.o
++obj-$(CONFIG_VIDEO_ADV7180) += adv7180.o
+ obj-$(CONFIG_VIDEO_ADV7343) += adv7343.o
+ obj-$(CONFIG_VIDEO_VPX3220) += vpx3220.o
+ obj-$(CONFIG_VIDEO_BT819) += bt819.o
+@@ -156,6 +157,8 @@
+ obj-$(CONFIG_VIDEO_AU0828) += au0828/
++obj-$(CONFIG_VIDEO_TIMBERDALE)        += timblogiw.o
++
+ obj-$(CONFIG_USB_VIDEO_CLASS) += uvc/
+ obj-$(CONFIG_VIDEO_IR_I2C)  += ir-kbd-i2c.o
+diff -uNr linux-2.6.31/drivers/media/video/timblogiw.c linux-2.6.31.new/drivers/media/video/timblogiw.c
+--- linux-2.6.31/drivers/media/video/timblogiw.c       1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/media/video/timblogiw.c   2009-10-23 11:17:28.000000000 -0700
+@@ -0,0 +1,1058 @@
++/*
++ * timblogiw.c timberdale FPGA LogiWin Video In driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Timberdale FPGA LogiWin Video In
++ */
++
++#include <linux/list.h>
++#include <linux/version.h>
++#include <linux/module.h>
++#include <linux/dma-mapping.h>
++#include <media/v4l2-common.h>
++#include <media/v4l2-ioctl.h>
++#include <media/v4l2-device.h>
++#include <linux/platform_device.h>
++#include <linux/interrupt.h>
++#include "timblogiw.h"
++#include <linux/mfd/timbdma.h>
++#include <linux/i2c.h>
++
++#define DRIVER_NAME "timb-video"
++
++#define TIMBLOGIW_CTRL 0x40
++
++#define TIMBLOGIW_H_SCALE 0x20
++#define TIMBLOGIW_V_SCALE 0x28
++
++#define TIMBLOGIW_X_CROP 0x58
++#define TIMBLOGIW_Y_CROP 0x60
++
++#define TIMBLOGIW_W_CROP 0x00
++#define TIMBLOGIW_H_CROP 0x08
++
++#define TIMBLOGIW_VERSION_CODE 0x02
++
++#define TIMBLOGIW_BUF 0x04
++#define TIMBLOGIW_TBI 0x2c
++#define TIMBLOGIW_BPL 0x30
++
++#define dbg(...)
++
++#define BYTES_PER_LINE (720 * 2)
++
++#define DMA_BUFFER_SIZE (BYTES_PER_LINE * 576)
++
++#define TIMBLOGIW_VIDEO_FORMAT V4L2_PIX_FMT_UYVY
++
++static void timblogiw_release_buffers(struct timblogiw *lw);
++
++const struct timblogiw_tvnorm timblogiw_tvnorms[] = {
++      {
++              .std                    = V4L2_STD_PAL,
++              .width                  = 720,
++              .height                 = 576
++      },
++      {
++              .std                    = V4L2_STD_NTSC,
++              .width                  = 720,
++              .height                 = 480
++      }
++};
++
++static int timblogiw_bytes_per_line(const struct timblogiw_tvnorm *norm)
++{
++      return norm->width * 2;
++}
++
++
++static int timblogiw_frame_size(const struct timblogiw_tvnorm *norm)
++{
++      return norm->height * timblogiw_bytes_per_line(norm);
++}
++
++static const struct timblogiw_tvnorm *timblogiw_get_norm(const v4l2_std_id std)
++{
++      int i;
++      for (i = 0; i < ARRAY_SIZE(timblogiw_tvnorms); i++)
++              if (timblogiw_tvnorms[i].std & std)
++                      return timblogiw_tvnorms + i;
++
++      /* default to first element */
++      return timblogiw_tvnorms;
++}
++
++static void timblogiw_handleframe(unsigned long arg)
++{
++      struct timblogiw_frame *f;
++      struct timblogiw *lw = (struct timblogiw *)arg;
++
++      spin_lock_bh(&lw->queue_lock);
++      if (lw->dma.filled && !list_empty(&lw->inqueue)) {
++              /* put the entry in the outqueue */
++              f = list_entry(lw->inqueue.next, struct timblogiw_frame, frame);
++
++              /* sync memory and unmap */
++              dma_sync_single_for_cpu(lw->dev, lw->dma.filled->handle,
++                      timblogiw_frame_size(lw->cur_norm), DMA_FROM_DEVICE);
++
++              /* copy data from the DMA buffer */
++              memcpy(f->bufmem, lw->dma.filled->buf, f->buf.length);
++              /* buffer consumed */
++              lw->dma.filled = NULL;
++
++              do_gettimeofday(&f->buf.timestamp);
++              f->buf.sequence = ++lw->frame_count;
++              f->buf.field = V4L2_FIELD_NONE;
++              f->state = F_DONE;
++              f->buf.bytesused = f->buf.length;
++              list_move_tail(&f->frame, &lw->outqueue);
++              /* wake up any waiter */
++              wake_up(&lw->wait_frame);
++      } else {
++              /* No user buffer available, consume buffer anyway
++               * who wants an old video frame?
++               */
++              lw->dma.filled = NULL;
++      }
++      spin_unlock_bh(&lw->queue_lock);
++}
++
++static int __timblogiw_start_dma(struct timblogiw *lw)
++{
++      int size = timblogiw_frame_size(lw->cur_norm);
++      int ret;
++      struct timbdma_transfer *transfer = lw->dma.transfer + lw->dma.curr;
++      int bytes_per_line = timblogiw_bytes_per_line(lw->cur_norm);
++
++      ret = timbdma_prep_desc(transfer->desc, transfer->handle, size);
++      if (ret)
++              goto err;
++
++      ret = timbdma_start(DMA_IRQ_VIDEO_RX, transfer->desc, bytes_per_line);
++      if (ret)
++              goto err;
++      return ret;
++err:
++      return ret;
++}
++
++static int timblogiw_isr(u32 flag, void *pdev)
++{
++      struct timblogiw *lw = (struct timblogiw *)pdev;
++
++      if (lw->stream == STREAM_OFF) {
++              timbdma_stop(DMA_IRQ_VIDEO_RX);
++              /* stream is stopped, signal that the current transfer is
++               * finished */
++              complete(&lw->irq_done);
++      } else {
++              struct timeval timestamp;
++
++              do_gettimeofday(&timestamp);
++
++              if (!lw->dma.filled && (flag & DMA_IRQ_VIDEO_RX)) {
++                      /* Got a frame, store it, and flip to next DMA buffer */
++                      lw->dma.filled = lw->dma.transfer + lw->dma.curr;
++                      lw->dma.curr = !lw->dma.curr;
++              } else if (lw->dma.filled && (flag & DMA_IRQ_VIDEO_RX))
++                      printk("No free frame\n");
++
++              __timblogiw_start_dma(lw);
++
++              if (flag & DMA_IRQ_VIDEO_DROP)
++                      dbg("%s: frame dropped\n", __func__);
++              if (flag & DMA_IRQ_VIDEO_RX) {
++                      dbg("%s: frame RX\n", __func__);
++                      tasklet_schedule(&lw->tasklet);
++              }
++      }
++
++      return 0;
++}
++
++static void timblogiw_empty_framequeues(struct timblogiw *lw)
++{
++      u32 i;
++
++      dbg("%s\n", __func__);
++
++      INIT_LIST_HEAD(&lw->inqueue);
++      INIT_LIST_HEAD(&lw->outqueue);
++
++      for (i = 0; i < lw->num_frames; i++) {
++              lw->frame[i].state = F_UNUSED;
++              lw->frame[i].buf.bytesused = 0;
++      }
++}
++
++u32 timblogiw_request_buffers(struct timblogiw *lw, u32 count)
++{
++      /* needs to be page aligned cause the */
++      /* buffers can be mapped individually! */
++      const size_t imagesize = PAGE_ALIGN(timblogiw_frame_size(lw->cur_norm));
++      void *buff = NULL;
++      int ret;
++      u32 i;
++
++      dbg("%s - request of %i buffers of size %zi\n",
++              __func__, count, imagesize);
++
++      lw->dma.transfer[0].buf = kzalloc(DMA_BUFFER_SIZE, GFP_KERNEL);
++      if (!lw->dma.transfer[0].buf)
++              goto err;
++
++      lw->dma.transfer[1].buf = kzalloc(DMA_BUFFER_SIZE, GFP_KERNEL);
++      if (!lw->dma.transfer[1].buf)
++              goto err;
++
++      lw->dma.transfer[0].desc =
++              timbdma_alloc_desc(DMA_BUFFER_SIZE, BYTES_PER_LINE * 2);
++      if (!lw->dma.transfer[0].desc)
++              goto err;
++
++      lw->dma.transfer[1].desc =
++              timbdma_alloc_desc(DMA_BUFFER_SIZE, BYTES_PER_LINE * 2);
++      if (!lw->dma.transfer[1].desc)
++              goto err;
++
++      /* map up the DMA buffers */
++      lw->dma.transfer[0].handle = dma_map_single(lw->dev,
++              lw->dma.transfer[0].buf, DMA_BUFFER_SIZE, DMA_FROM_DEVICE);
++      ret = dma_mapping_error(lw->dev, lw->dma.transfer[0].handle);
++      if (ret) {
++              lw->dma.transfer[0].handle = 0;
++              goto err;
++      }
++
++      lw->dma.transfer[1].handle = dma_map_single(lw->dev,
++              lw->dma.transfer[1].buf, DMA_BUFFER_SIZE, DMA_FROM_DEVICE);
++      ret = dma_mapping_error(lw->dev, lw->dma.transfer[1].handle);
++      if (ret) {
++              lw->dma.transfer[1].handle = 0;
++              goto err;
++      }
++
++      if (count > TIMBLOGIW_NUM_FRAMES)
++              count = TIMBLOGIW_NUM_FRAMES;
++
++      lw->num_frames = count;
++      while (lw->num_frames > 0) {
++              buff = vmalloc_32(lw->num_frames * imagesize);
++              if (buff) {
++                      memset(buff, 0, lw->num_frames * imagesize);
++                      break;
++              }
++              lw->num_frames--;
++      }
++
++      for (i = 0; i < lw->num_frames; i++) {
++              lw->frame[i].bufmem = buff + i * imagesize;
++              lw->frame[i].buf.index = i;
++              lw->frame[i].buf.m.offset = i * imagesize;
++              lw->frame[i].buf.length = timblogiw_frame_size(lw->cur_norm);
++              lw->frame[i].buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
++              lw->frame[i].buf.sequence = 0;
++              lw->frame[i].buf.field = V4L2_FIELD_NONE;
++              lw->frame[i].buf.memory = V4L2_MEMORY_MMAP;
++              lw->frame[i].buf.flags = 0;
++      }
++
++      lw->dma.curr = 0;
++      lw->dma.filled = NULL;
++      return lw->num_frames;
++err:
++      timblogiw_release_buffers(lw);
++
++      return 0;
++}
++
++static void timblogiw_release_buffers(struct timblogiw *lw)
++{
++      dbg("%s\n", __func__);
++
++      if (lw->frame[0].bufmem != NULL) {
++              vfree(lw->frame[0].bufmem);
++              lw->frame[0].bufmem = NULL;
++      }
++
++      if (lw->dma.transfer[0].handle)
++              dma_unmap_single(lw->dev, lw->dma.transfer[0].handle,
++                      DMA_BUFFER_SIZE, DMA_FROM_DEVICE);
++
++      if (lw->dma.transfer[1].handle)
++              dma_unmap_single(lw->dev, lw->dma.transfer[1].handle,
++                      DMA_BUFFER_SIZE, DMA_FROM_DEVICE);
++
++      if (lw->dma.transfer[0].buf != NULL)
++              kfree(lw->dma.transfer[0].buf);
++      lw->dma.transfer[0].buf = NULL;
++
++      if (lw->dma.transfer[1].buf != NULL)
++              kfree(lw->dma.transfer[1].buf);
++      lw->dma.transfer[1].buf = NULL;
++
++      if (lw->dma.transfer[0].desc != NULL)
++              timbdma_free_desc(lw->dma.transfer[0].desc);
++      lw->dma.transfer[0].desc = NULL;
++
++      if (lw->dma.transfer[1].desc != NULL)
++              timbdma_free_desc(lw->dma.transfer[1].desc);
++      lw->dma.transfer[1].desc = NULL;
++
++
++      lw->num_frames = TIMBLOGIW_NUM_FRAMES;
++}
++
++/* IOCTL functions */
++
++static int timblogiw_g_fmt(struct file *file, void  *priv,
++      struct v4l2_format *format)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++
++      dbg("%s\n",  __func__);
++
++      if (format->type != V4L2_BUF_TYPE_VIDEO_CAPTURE)
++              return -EINVAL;
++
++      format->fmt.pix.width = lw->cur_norm->width;
++      format->fmt.pix.height = lw->cur_norm->height;
++      format->fmt.pix.pixelformat = TIMBLOGIW_VIDEO_FORMAT;
++      format->fmt.pix.bytesperline = timblogiw_bytes_per_line(lw->cur_norm);
++      format->fmt.pix.sizeimage = timblogiw_frame_size(lw->cur_norm);
++      format->fmt.pix.colorspace = V4L2_COLORSPACE_SMPTE170M;
++      format->fmt.pix.field = V4L2_FIELD_NONE;
++      return 0;
++}
++
++static int timblogiw_try_fmt(struct file *file, void  *priv,
++      struct v4l2_format *format)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++      struct v4l2_pix_format *pix = &format->fmt.pix;
++
++      dbg("%s - width=%d, height=%d, pixelformat=%d, field=%d\n"
++              "bytes per line %d, size image: %d, colorspace: %d\n",
++              __func__,
++              pix->width, pix->height, pix->pixelformat, pix->field,
++              pix->bytesperline, pix->sizeimage, pix->colorspace);
++
++      if (format->type != V4L2_BUF_TYPE_VIDEO_CAPTURE)
++              return -EINVAL;
++
++      if (pix->field != V4L2_FIELD_NONE)
++              return -EINVAL;
++
++      if (pix->pixelformat != TIMBLOGIW_VIDEO_FORMAT)
++              return -EINVAL;
++
++      if ((lw->cur_norm->height != pix->height) ||
++              (lw->cur_norm->width != pix->width)) {
++              pix->width = lw->cur_norm->width;
++              pix->height = lw->cur_norm->height;
++      }
++
++      return 0;
++}
++
++static int timblogiw_querycap(struct file *file, void  *priv,
++      struct v4l2_capability *cap)
++{
++      dbg("%s\n",  __func__);
++      memset(cap, 0, sizeof(*cap));
++      strncpy(cap->card, "Timberdale Video", sizeof(cap->card)-1);
++      strncpy(cap->driver, "Timblogiw", sizeof(cap->card)-1);
++      cap->version = TIMBLOGIW_VERSION_CODE;
++      cap->capabilities = V4L2_CAP_VIDEO_CAPTURE |
++              V4L2_CAP_STREAMING;
++
++      return 0;
++}
++
++static int timblogiw_enum_fmt(struct file *file, void  *priv,
++      struct v4l2_fmtdesc *fmt)
++{
++      dbg("%s, index: %d\n",  __func__, fmt->index);
++
++      if (fmt->index != 0)
++              return -EINVAL;
++      memset(fmt, 0, sizeof(*fmt));
++      fmt->index = 0;
++      fmt->type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
++      strncpy(fmt->description, "4:2:2, packed, YUYV",
++              sizeof(fmt->description)-1);
++      fmt->pixelformat = TIMBLOGIW_VIDEO_FORMAT;
++      memset(fmt->reserved, 0, sizeof(fmt->reserved));
++
++      return 0;
++}
++
++static int timblogiw_reqbufs(struct file *file, void  *priv,
++      struct v4l2_requestbuffers *rb)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++
++      dbg("%s\n",  __func__);
++
++      if (rb->type != V4L2_BUF_TYPE_VIDEO_CAPTURE ||
++              rb->memory != V4L2_MEMORY_MMAP)
++              return -EINVAL;
++
++      timblogiw_empty_framequeues(lw);
++
++      timblogiw_release_buffers(lw);
++      if (rb->count)
++              rb->count = timblogiw_request_buffers(lw, rb->count);
++
++      dbg("%s - VIDIOC_REQBUFS: io method is mmap. num bufs %i\n",
++              __func__, rb->count);
++
++      return 0;
++}
++
++static int timblogiw_querybuf(struct file *file, void  *priv,
++      struct v4l2_buffer *b)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++
++      dbg("%s\n",  __func__);
++
++      if (b->type != V4L2_BUF_TYPE_VIDEO_CAPTURE ||
++              b->index >= lw->num_frames)
++              return -EINVAL;
++
++      memcpy(b, &lw->frame[b->index].buf, sizeof(*b));
++
++      if (lw->frame[b->index].vma_use_count)
++              b->flags |= V4L2_BUF_FLAG_MAPPED;
++
++      if (lw->frame[b->index].state == F_DONE)
++              b->flags |= V4L2_BUF_FLAG_DONE;
++      else if (lw->frame[b->index].state != F_UNUSED)
++              b->flags |= V4L2_BUF_FLAG_QUEUED;
++
++      return 0;
++}
++
++static int timblogiw_qbuf(struct file *file, void  *priv, struct v4l2_buffer *b)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++      unsigned long lock_flags;
++
++      if (b->type != V4L2_BUF_TYPE_VIDEO_CAPTURE ||
++              b->index >= lw->num_frames)
++              return -EINVAL;
++
++      if (lw->frame[b->index].state != F_UNUSED)
++              return -EAGAIN;
++
++      if (!lw->frame[b->index].bufmem)
++              return -EINVAL;
++
++      if (b->memory != V4L2_MEMORY_MMAP)
++              return -EINVAL;
++
++      lw->frame[b->index].state = F_QUEUED;
++
++      spin_lock_irqsave(&lw->queue_lock, lock_flags);
++      list_add_tail(&lw->frame[b->index].frame, &lw->inqueue);
++      spin_unlock_irqrestore(&lw->queue_lock, lock_flags);
++
++      return 0;
++}
++
++static int timblogiw_dqbuf(struct file *file, void  *priv,
++      struct v4l2_buffer *b)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++      struct timblogiw_frame *f;
++      unsigned long lock_flags;
++      int ret = 0;
++
++      if (b->type != V4L2_BUF_TYPE_VIDEO_CAPTURE) {
++              dbg("%s - VIDIOC_DQBUF, illegal buf type!\n",
++                      __func__);
++              return -EINVAL;
++      }
++
++      if (list_empty(&lw->outqueue)) {
++              if (file->f_flags & O_NONBLOCK)
++                      return -EAGAIN;
++
++              ret = wait_event_interruptible(lw->wait_frame,
++                      !list_empty(&lw->outqueue));
++              if (ret)
++                      return ret;
++      }
++
++      spin_lock_irqsave(&lw->queue_lock, lock_flags);
++      f = list_entry(lw->outqueue.next,
++                      struct timblogiw_frame, frame);
++      list_del(lw->outqueue.next);
++      spin_unlock_irqrestore(&lw->queue_lock, lock_flags);
++
++      f->state = F_UNUSED;
++      memcpy(b, &f->buf, sizeof(*b));
++
++      if (f->vma_use_count)
++              b->flags |= V4L2_BUF_FLAG_MAPPED;
++
++      return 0;
++}
++
++static int timblogiw_g_std(struct file *file, void  *priv, v4l2_std_id *std)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++
++      dbg("%s\n",  __func__);
++
++      *std = lw->cur_norm->std;
++      return 0;
++}
++
++static int timblogiw_s_std(struct file *file, void  *priv, v4l2_std_id *std)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++      int err;
++
++      dbg("%s\n",  __func__);
++
++      err = v4l2_subdev_call(lw->sd_enc, core, s_std, *std);
++      if (!err)
++              lw->cur_norm = timblogiw_get_norm(*std);
++
++      return err;
++}
++
++static int timblogiw_enuminput(struct file *file, void  *priv,
++      struct v4l2_input *inp)
++{
++      dbg("%s\n",  __func__);
++
++      if (inp->index != 0)
++              return -EINVAL;
++
++      memset(inp, 0, sizeof(*inp));
++      inp->index = 0;
++
++      strncpy(inp->name, "Timb input 1", sizeof(inp->name) - 1);
++      inp->type = V4L2_INPUT_TYPE_CAMERA;
++      inp->std = V4L2_STD_ALL;
++
++      return 0;
++}
++
++static int timblogiw_g_input(struct file *file, void  *priv,
++      unsigned int *input)
++{
++      dbg("%s\n",  __func__);
++
++      *input = 0;
++
++      return 0;
++}
++
++static int timblogiw_s_input(struct file *file, void  *priv, unsigned int input)
++{
++      dbg("%s\n",  __func__);
++
++      if (input != 0)
++              return -EINVAL;
++      return 0;
++}
++
++static int timblogiw_streamon(struct file *file, void  *priv, unsigned int type)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++      struct timblogiw_frame *f;
++
++      dbg("%s\n",  __func__);
++
++      if (type != V4L2_BUF_TYPE_VIDEO_CAPTURE) {
++              dbg("%s - No capture device\n", __func__);
++              return -EINVAL;
++      }
++
++      if (list_empty(&lw->inqueue)) {
++              dbg("%s - inqueue is empty\n", __func__);
++              return -EINVAL;
++      }
++
++      if (lw->stream == STREAM_ON)
++              return 0;
++
++      lw->stream = STREAM_ON;
++
++      f = list_entry(lw->inqueue.next,
++              struct timblogiw_frame, frame);
++
++      dbg("%s - f size: %d, bpr: %d, dma addr: %x\n", __func__,
++              timblogiw_frame_size(lw->cur_norm),
++              timblogiw_bytes_per_line(lw->cur_norm),
++              (unsigned int)lw->dma.transfer[lw->dma.curr].handle);
++
++      __timblogiw_start_dma(lw);
++
++      return 0;
++}
++
++static void timblogiw_stopstream(struct timblogiw *lw)
++{
++      if (lw->stream == STREAM_ON) {
++              /* The FPGA might be busy copying the current frame, we have
++               * to wait for the frame to finish
++               */
++              unsigned long lock_flags;
++
++              init_completion(&lw->irq_done);
++
++              spin_lock_irqsave(&lw->queue_lock, lock_flags);
++              lw->stream = STREAM_OFF;
++              spin_unlock_irqrestore(&lw->queue_lock, lock_flags);
++
++              wait_for_completion_timeout(&lw->irq_done, 
++                      msecs_to_jiffies(100));
++      }
++}
++
++static int timblogiw_streamoff(struct file *file, void  *priv,
++      unsigned int type)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++
++      dbg("%s\n",  __func__);
++
++      if (type != V4L2_BUF_TYPE_VIDEO_CAPTURE)
++              return -EINVAL;
++
++      timblogiw_stopstream(lw);
++
++      timblogiw_empty_framequeues(lw);
++
++      return 0;
++}
++
++static int timblogiw_querystd(struct file *file, void  *priv, v4l2_std_id *std)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++
++      dbg("%s\n",  __func__);
++
++      return v4l2_subdev_call(lw->sd_enc, video, querystd, std);
++}
++
++static int timblogiw_enum_framesizes(struct file *file, void  *priv,
++      struct v4l2_frmsizeenum *fsize)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++
++      dbg("%s - index: %d, format: %d\n",  __func__,
++              fsize->index, fsize->pixel_format);
++
++      if ((fsize->index != 0) ||
++              (fsize->pixel_format != TIMBLOGIW_VIDEO_FORMAT))
++              return -EINVAL;
++
++      fsize->type = V4L2_FRMSIZE_TYPE_DISCRETE;
++      fsize->discrete.width = lw->cur_norm->width;
++      fsize->discrete.height = lw->cur_norm->height;
++
++      return 0;
++}
++
++struct find_addr_arg {
++      char const *name;
++      struct i2c_client *client;
++};
++
++static int find_name(struct device *dev, void *argp)
++{
++      struct find_addr_arg    *arg = (struct find_addr_arg *)argp;
++      struct i2c_client       *client = i2c_verify_client(dev);
++
++      if (client && !strcmp(arg->name, client->name) && client->driver)
++              arg->client = client;
++
++      return 0;
++}
++
++static struct i2c_client *find_client(struct i2c_adapter *adapt,
++      const char *name)
++{
++      struct find_addr_arg find_arg;
++      /* now find the client */
++#ifdef MODULE
++      request_module(name);
++#endif
++      /* code for finding the I2C child */
++      find_arg.name = name;
++      find_arg.client = NULL;
++      device_for_each_child(&adapt->dev, &find_arg, find_name);
++      return find_arg.client;
++}
++
++/*******************************
++ * Device Operations functions *
++ *******************************/
++
++static int timblogiw_open(struct file *file)
++{
++      struct video_device *vdev = video_devdata(file);
++      struct timblogiw *lw = video_get_drvdata(vdev);
++      v4l2_std_id std = V4L2_STD_UNKNOWN;
++      int err = 0;
++
++      dbg("%s -\n", __func__);
++
++      mutex_init(&lw->fileop_lock);
++      spin_lock_init(&lw->queue_lock);
++      init_waitqueue_head(&lw->wait_frame);
++
++      mutex_lock(&lw->lock);
++
++      if (!lw->sd_enc) {
++              struct i2c_adapter *adapt;
++              struct i2c_client *encoder;
++
++              /* find the video decoder */
++              adapt = i2c_get_adapter(lw->pdata.i2c_adapter);
++              if (!adapt) {
++                      printk(KERN_ERR DRIVER_NAME": No I2C bus\n");
++                      err = -ENODEV;
++                      goto out;
++              }
++
++              /* now find the encoder */
++              encoder = find_client(adapt, lw->pdata.encoder);
++
++              i2c_put_adapter(adapt);
++
++              if (!encoder) {
++                      printk(KERN_ERR DRIVER_NAME": Failed to get encoder\n");
++                      err = -ENODEV;
++                      goto out;
++              }
++
++              lw->sd_enc = i2c_get_clientdata(encoder);
++              lw->enc_owner = lw->sd_enc->owner;
++              /* Lock the module */
++              if (!try_module_get(lw->enc_owner)) {
++                      lw->sd_enc = NULL;
++                      err = -ENODEV;
++                      goto out;
++              }
++      }
++
++      timblogiw_querystd(file, NULL, &std);
++      lw->cur_norm = timblogiw_get_norm(std);
++
++      file->private_data = lw;
++      lw->stream = STREAM_OFF;
++      lw->num_frames = TIMBLOGIW_NUM_FRAMES;
++
++      timblogiw_empty_framequeues(lw);
++      timbdma_set_interruptcb(DMA_IRQ_VIDEO_RX | DMA_IRQ_VIDEO_DROP,
++              timblogiw_isr, (void *)lw);
++
++out:
++      mutex_unlock(&lw->lock);
++
++      return err;
++}
++
++static int timblogiw_close(struct file *file)
++{
++      struct timblogiw *lw = file->private_data;
++
++      dbg("%s - entry\n", __func__);
++
++      mutex_lock(&lw->lock);
++
++      timblogiw_stopstream(lw);
++
++      timbdma_set_interruptcb(DMA_IRQ_VIDEO_RX | DMA_IRQ_VIDEO_DROP, NULL,
++              NULL);
++      timblogiw_release_buffers(lw);
++
++      mutex_unlock(&lw->lock);
++      return 0;
++}
++
++static ssize_t timblogiw_read(struct file *file, char __user *data,
++      size_t count, loff_t *ppos)
++{
++      dbg("%s - read request\n", __func__);
++      return -EINVAL;
++}
++
++static void timblogiw_vm_open(struct vm_area_struct *vma)
++{
++      struct timblogiw_frame *f = vma->vm_private_data;
++      f->vma_use_count++;
++}
++
++static void timblogiw_vm_close(struct vm_area_struct *vma)
++{
++      struct timblogiw_frame *f = vma->vm_private_data;
++      f->vma_use_count--;
++}
++
++static struct vm_operations_struct timblogiw_vm_ops = {
++      .open = timblogiw_vm_open,
++      .close = timblogiw_vm_close,
++};
++
++static int timblogiw_mmap(struct file *filp, struct vm_area_struct *vma)
++{
++      unsigned long size = vma->vm_end - vma->vm_start, start = vma->vm_start;
++      void *pos;
++      u32 i;
++      int ret = -EINVAL;
++
++      struct timblogiw *lw = filp->private_data;
++      dbg("%s\n", __func__);
++
++      if (mutex_lock_interruptible(&lw->fileop_lock))
++              return -ERESTARTSYS;
++
++      if (!(vma->vm_flags & VM_WRITE) ||
++              size != PAGE_ALIGN(lw->frame[0].buf.length))
++              goto error_unlock;
++
++      for (i = 0; i < lw->num_frames; i++)
++              if ((lw->frame[i].buf.m.offset >> PAGE_SHIFT) == vma->vm_pgoff)
++                      break;
++
++      if (i == lw->num_frames) {
++              dbg("%s - user supplied mapping address is out of range\n",
++                      __func__);
++              goto error_unlock;
++      }
++
++      vma->vm_flags |= VM_IO;
++      vma->vm_flags |= VM_RESERVED;   /* Do not swap out this VMA */
++
++      pos = lw->frame[i].bufmem;
++      while (size > 0) {              /* size is page-aligned */
++              if (vm_insert_page(vma, start, vmalloc_to_page(pos))) {
++                      dbg("%s - vm_insert_page failed\n", __func__);
++                      ret = -EAGAIN;
++                      goto error_unlock;
++              }
++              start += PAGE_SIZE;
++              pos += PAGE_SIZE;
++              size -= PAGE_SIZE;
++      }
++
++      vma->vm_ops = &timblogiw_vm_ops;
++      vma->vm_private_data = &lw->frame[i];
++      timblogiw_vm_open(vma);
++      ret = 0;
++
++error_unlock:
++      mutex_unlock(&lw->fileop_lock);
++      return ret;
++}
++
++
++void timblogiw_vdev_release(struct video_device *vdev)
++{
++      kfree(vdev);
++}
++
++static const struct v4l2_ioctl_ops timblogiw_ioctl_ops = {
++      .vidioc_querycap      = timblogiw_querycap,
++      .vidioc_enum_fmt_vid_cap  = timblogiw_enum_fmt,
++      .vidioc_g_fmt_vid_cap     = timblogiw_g_fmt,
++      .vidioc_try_fmt_vid_cap   = timblogiw_try_fmt,
++      .vidioc_s_fmt_vid_cap     = timblogiw_try_fmt,
++      .vidioc_reqbufs       = timblogiw_reqbufs,
++      .vidioc_querybuf      = timblogiw_querybuf,
++      .vidioc_qbuf          = timblogiw_qbuf,
++      .vidioc_dqbuf         = timblogiw_dqbuf,
++      .vidioc_g_std         = timblogiw_g_std,
++      .vidioc_s_std         = timblogiw_s_std,
++      .vidioc_enum_input    = timblogiw_enuminput,
++      .vidioc_g_input       = timblogiw_g_input,
++      .vidioc_s_input       = timblogiw_s_input,
++      .vidioc_streamon      = timblogiw_streamon,
++      .vidioc_streamoff     = timblogiw_streamoff,
++      .vidioc_querystd      = timblogiw_querystd,
++      .vidioc_enum_framesizes = timblogiw_enum_framesizes,
++};
++
++static const struct v4l2_file_operations timblogiw_fops = {
++      .owner          = THIS_MODULE,
++      .open           = timblogiw_open,
++      .release        = timblogiw_close,
++      .ioctl          = video_ioctl2, /* V4L2 ioctl handler */
++      .mmap           = timblogiw_mmap,
++      .read           = timblogiw_read,
++};
++
++static const struct video_device timblogiw_template = {
++      .name           = TIMBLOGIWIN_NAME,
++      .fops           = &timblogiw_fops,
++      .ioctl_ops      = &timblogiw_ioctl_ops,
++      .release        = &timblogiw_vdev_release,
++      .minor          = -1,
++      .tvnorms        = V4L2_STD_PAL | V4L2_STD_NTSC
++};
++
++static int timblogiw_probe(struct platform_device *dev)
++{
++      int err;
++      struct timblogiw *lw = NULL;
++      struct resource *iomem;
++      struct timb_video_platform_data *pdata = dev->dev.platform_data;
++
++      if (!pdata) {
++              printk(KERN_ERR DRIVER_NAME": Platform data missing\n");
++              err = -EINVAL;
++              goto err_mem;
++      }
++
++      iomem = platform_get_resource(dev, IORESOURCE_MEM, 0);
++      if (!iomem) {
++              err = -EINVAL;
++              goto err_mem;
++      }
++
++      lw = kzalloc(sizeof(*lw), GFP_KERNEL);
++      if (!lw) {
++              err = -ENOMEM;
++              goto err_mem;
++      }
++
++      if (dev->dev.parent)
++              lw->dev = dev->dev.parent;
++      else
++              lw->dev = &dev->dev;
++
++      memcpy(&lw->pdata, pdata, sizeof(lw->pdata));
++
++      mutex_init(&lw->lock);
++
++      lw->video_dev = video_device_alloc();
++      if (!lw->video_dev) {
++              err = -ENOMEM;
++              goto err_mem;
++      }
++      *lw->video_dev = timblogiw_template;
++
++      err = video_register_device(lw->video_dev, VFL_TYPE_GRABBER, 0);
++      if (err) {
++              printk(KERN_ALERT DRIVER_NAME": Error reg video\n");
++              goto err_request;
++      }
++
++      tasklet_init(&lw->tasklet, timblogiw_handleframe, (unsigned long)lw);
++
++      if (!request_mem_region(iomem->start, resource_size(iomem),
++              DRIVER_NAME)) {
++              err = -EBUSY;
++              goto err_request;
++      }
++
++      lw->membase = ioremap(iomem->start, resource_size(iomem));
++      if (!lw->membase) {
++              err = -ENOMEM;
++              goto err_ioremap;
++      }
++
++      platform_set_drvdata(dev, lw);
++      video_set_drvdata(lw->video_dev, lw);
++
++      return 0;
++
++err_ioremap:
++      release_mem_region(iomem->start, resource_size(iomem));
++err_request:
++      if (-1 != lw->video_dev->minor)
++              video_unregister_device(lw->video_dev);
++      else
++              video_device_release(lw->video_dev);
++err_mem:
++      kfree(lw);
++      printk(KERN_ERR DRIVER_NAME ": Failed to register: %d\n", err);
++
++      return err;
++}
++
++static int timblogiw_remove(struct platform_device *dev)
++{
++      struct timblogiw *lw = platform_get_drvdata(dev);
++      struct resource *iomem = platform_get_resource(dev, IORESOURCE_MEM, 0);
++
++      if (-1 != lw->video_dev->minor)
++              video_unregister_device(lw->video_dev);
++      else
++              video_device_release(lw->video_dev);
++
++      if (lw->sd_enc)
++              module_put(lw->enc_owner);
++      tasklet_kill(&lw->tasklet);
++      iounmap(lw->membase);
++      release_mem_region(iomem->start, resource_size(iomem));
++      kfree(lw);
++
++      return 0;
++}
++
++static struct platform_driver timblogiw_platform_driver = {
++      .driver = {
++              .name   = DRIVER_NAME,
++              .owner  = THIS_MODULE,
++      },
++      .probe          = timblogiw_probe,
++      .remove         = timblogiw_remove,
++};
++
++/*--------------------------------------------------------------------------*/
++
++static int __init timblogiw_init(void)
++{
++      return platform_driver_register(&timblogiw_platform_driver);
++}
++
++static void __exit timblogiw_exit(void)
++{
++      platform_driver_unregister(&timblogiw_platform_driver);
++}
++
++module_init(timblogiw_init);
++module_exit(timblogiw_exit);
++
++MODULE_DESCRIPTION("Timberdale Video In driver");
++MODULE_AUTHOR("Mocean Laboratories <info@mocean-labs.com>");
++MODULE_LICENSE("GPL v2");
++MODULE_ALIAS("platform:"DRIVER_NAME);
++
+diff -uNr linux-2.6.31/drivers/media/video/timblogiw.h linux-2.6.31.new/drivers/media/video/timblogiw.h
+--- linux-2.6.31/drivers/media/video/timblogiw.h       1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/media/video/timblogiw.h   2009-10-23 11:17:28.000000000 -0700
+@@ -0,0 +1,96 @@
++/*
++ * timblogiw.h timberdale FPGA LogiWin Video In driver defines
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Timberdale FPGA LogiWin Video In
++ */
++
++#ifndef _TIMBLOGIW_H
++#define _TIMBLOGIW_H
++
++#include <linux/interrupt.h>
++#include <media/timb_video.h>
++#include <linux/completion.h>
++
++#define TIMBLOGIWIN_NAME    "Timberdale Video-In"
++
++#define TIMBLOGIW_NUM_FRAMES  10
++
++
++enum timblogiw_stream_state {
++      STREAM_OFF,
++      STREAM_ON,
++};
++
++enum timblogiw_frame_state {
++      F_UNUSED = 0,
++      F_QUEUED,
++      F_DONE,
++};
++
++struct timblogiw_frame {
++      void                            *bufmem;
++      struct v4l2_buffer              buf;
++      enum timblogiw_frame_state      state;
++      struct list_head                frame;
++      unsigned long                   vma_use_count;
++};
++
++struct timblogiw_tvnorm {
++      v4l2_std_id std;
++      u16     width;
++      u16     height;
++};
++
++
++
++struct timbdma_transfer {
++      dma_addr_t      handle;
++      void            *buf;
++      void            *desc;
++};
++
++struct timblogiw_dma_control {
++      struct timbdma_transfer transfer[2];
++      struct timbdma_transfer *filled;
++      int curr;
++};
++
++struct timblogiw {
++      struct timblogiw_frame          frame[TIMBLOGIW_NUM_FRAMES];
++      int                             num_frames;
++      unsigned int                    frame_count;
++      struct list_head                inqueue, outqueue;
++      spinlock_t                      queue_lock; /* mutual exclusion */
++      enum timblogiw_stream_state     stream;
++      struct video_device             *video_dev;
++      struct mutex                    lock, fileop_lock;
++      wait_queue_head_t               wait_frame;
++      struct completion               irq_done;
++      struct timblogiw_tvnorm const   *cur_norm;
++      struct device                   *dev;
++      struct timblogiw_dma_control    dma;
++      void __iomem                    *membase;
++      struct tasklet_struct           tasklet;
++      struct timb_video_platform_data pdata;
++      struct v4l2_subdev *sd_enc;     /* encoder */
++      struct module   *enc_owner;
++};
++
++#endif /* _TIMBLOGIW_H */
++
+diff -uNr linux-2.6.31/drivers/mfd/Kconfig linux-2.6.31.new/drivers/mfd/Kconfig
+--- linux-2.6.31/drivers/mfd/Kconfig   2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/mfd/Kconfig       2009-10-23 11:17:29.000000000 -0700
+@@ -263,6 +263,25 @@
+         This enables the PCAP ASIC present on EZX Phones. This is
+         needed for MMC, TouchScreen, Sound, USB, etc..
++config MFD_TIMBERDALE
++      tristate "Support for the Timberdale FPGA"
++      select MFD_CORE
++      depends on PCI
++      ---help---
++      This is the core driver for the timberdale FPGA. This device is a
++      multifunctioanl device which may provide numerous interfaces.
++
++      The timberdale FPGA can be found on the Intel Atom development board
++      for automotive in-vehicle infontainment board called Russellville.
++
++config MFD_TIMBERDALE_DMA
++      tristate "Support for timberdale DMA"
++      depends on MFD_TIMBERDALE
++      depends on HAS_IOMEM
++      ---help---
++      Add support the DMA block inside the timberdale FPGA. This to be able
++      to do DMA transfers directly to some of the blocks inside the FPGA
++
+ endmenu
+ menu "Multimedia Capabilities Port drivers"
+diff -uNr linux-2.6.31/drivers/mfd/Makefile linux-2.6.31.new/drivers/mfd/Makefile
+--- linux-2.6.31/drivers/mfd/Makefile  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/mfd/Makefile      2009-10-23 11:17:29.000000000 -0700
+@@ -44,3 +44,7 @@
+ obj-$(CONFIG_PCF50633_ADC)    += pcf50633-adc.o
+ obj-$(CONFIG_PCF50633_GPIO)   += pcf50633-gpio.o
+ obj-$(CONFIG_AB3100_CORE)     += ab3100-core.o
++
++obj-$(CONFIG_MFD_TIMBERDALE)          += timberdale.o
++obj-$(CONFIG_MFD_TIMBERDALE_DMA)      += timbdma.o
++
+diff -uNr linux-2.6.31/drivers/mfd/timbdma.c linux-2.6.31.new/drivers/mfd/timbdma.c
+--- linux-2.6.31/drivers/mfd/timbdma.c 1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/mfd/timbdma.c     2009-10-23 11:17:29.000000000 -0700
+@@ -0,0 +1,542 @@
++/*
++ * timbdma.c timberdale FPGA DMA driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Timberdale FPGA DMA engine
++ */
++
++#include <linux/version.h>
++#include <linux/module.h>
++#include <linux/interrupt.h>
++#include <linux/platform_device.h>
++#include <linux/io-mapping.h>
++#include <linux/dma-mapping.h>
++#include <linux/mfd/timbdma.h>
++
++#define DRIVER_NAME "timb-dma"
++
++#define TIMBDMA_ACR           0x34
++#define TIMBDMA_32BIT_ADDR    0x01
++
++#define TIMBDMA_ISR           0x080000
++#define TIMBDMA_IPR           0x080004
++#define TIMBDMA_IER           0x080008
++
++/* DMA configuration registers */
++/* RX registers */
++#define TIMBDMA_OFFS_RX_DHAR  0x00
++#define TIMBDMA_OFFS_RX_DLAR  0x04
++#define TIMBDMA_OFFS_RX_LR    0x0C
++#define TIMBDMA_OFFS_RX_BLR   0x10
++#define TIMBDMA_OFFS_RX_ER    0x14
++#define TIMBDMA_RX_EN         0x01
++/* bytes per Row, video specific register */
++#define TIMBDMA_OFFS_RX_BPRR  0x30
++
++/* TX registers */
++#define TIMBDMA_OFFS_TX_DHAR  0x18
++#define TIMBDMA_OFFS_TX_DLAR  0x1C
++#define TIMBDMA_OFFS_TX_BLR   0x24
++#define TIMBDMA_OFFS_TX_LR    0x28
++
++#define DMA_DESC_SIZE 8
++
++struct dma_desc {
++      u32 len;
++      u32 chunk_size;
++      u8 buf[0];
++};
++
++struct timbdma_control {
++      timbdma_interruptcb     callback;
++      void                    *callback_data;
++      dma_addr_t              desc;
++      int                     desc_len;
++      /* the following are used to store a desc while the hw has not been
++       * probed yet
++       */
++      struct dma_desc         *stored_desc;
++      int                     stored_bytes_per_row;
++};
++
++struct timbdma_dev {
++      void __iomem            *membase;
++      struct device           *dev;
++      struct timbdma_control  control[DMA_IRQS];
++      spinlock_t              lock; /* mutual exclusion */
++};
++
++static struct timbdma_dev *self_g;
++
++
++void *timbdma_alloc_desc(u32 size, u16 alignment)
++{
++      /* calculate the number of chunks needed */
++      int chunk_size = USHORT_MAX - (USHORT_MAX % alignment);
++      int chunks = size / chunk_size;
++      int len;
++      struct dma_desc *dma_desc;
++
++      if (size % chunk_size)
++              chunks++;
++
++      len = sizeof(struct dma_desc) + DMA_DESC_SIZE * chunks;
++
++      dma_desc = kzalloc(len, GFP_KERNEL);
++      if (dma_desc) {
++              dma_desc->len = DMA_DESC_SIZE * chunks;
++              dma_desc->chunk_size = chunk_size;
++      }
++      return dma_desc;
++}
++EXPORT_SYMBOL(timbdma_alloc_desc);
++
++void timbdma_free_desc(void *desc)
++{
++      kfree(desc);
++}
++EXPORT_SYMBOL(timbdma_free_desc);
++
++int timbdma_prep_desc(void *desc, dma_addr_t addr, u32 size)
++{
++      struct dma_desc *dma_desc = desc;
++      u8 *buf = dma_desc->buf;
++      dma_addr_t cur_addr = addr;
++      int chunks = size / dma_desc->chunk_size;
++      if (size % dma_desc->chunk_size)
++              chunks++;
++
++      if (dma_desc->len < chunks * DMA_DESC_SIZE)
++              return -EINVAL;
++
++      while (size > 0) {
++              int chunk_size = dma_desc->chunk_size;
++              if (chunk_size > size)
++                      chunk_size = size;
++              buf[7] = (cur_addr >> 24) & 0xff;
++              buf[6] = (cur_addr >> 16) & 0xff;
++              buf[5] = (cur_addr >> 8) & 0xff;
++              buf[4] = (cur_addr >> 0) & 0xff;
++
++              buf[3] = (chunk_size >> 8) & 0xff;
++              buf[2] = (chunk_size >> 0) & 0xff;
++
++              buf[1] = 0x00;
++              buf[0] = 0x21; /* tran, valid */
++
++              buf += DMA_DESC_SIZE;
++              cur_addr += chunk_size;
++              size -= chunk_size;
++      }
++
++      /* make sure to mark the last one as end */
++      (buf-DMA_DESC_SIZE)[0] |= 0x2;
++
++      return 0;
++}
++EXPORT_SYMBOL(timbdma_prep_desc);
++
++static irqreturn_t timbdma_handleinterrupt(int irq, void *devid)
++{
++      struct timbdma_dev *dev = (struct timbdma_dev *)devid;
++      u32 ipr, ier;
++      int i;
++
++      ipr = ioread32(dev->membase + TIMBDMA_IPR);
++      /* the MSI-X controller is level triggered, help it a bit,
++       * by disabling interrupts and re-enable them in the end.
++       */
++      ier = ioread32(dev->membase + TIMBDMA_IER);
++      iowrite32(0, dev->membase + TIMBDMA_IER);
++
++      if (ipr) {
++              /* ack */
++              iowrite32(ipr, dev->membase + TIMBDMA_ISR);
++
++              /* call the callbacks */
++              for (i = 0; i < DMA_IRQS; i++) {
++                      int mask = 1 << i;
++                      if (ipr & mask) {
++                              struct timbdma_control *ctrl = dev->control + i;
++                              struct timbdma_control *unmap_ctrl = ctrl;
++
++                              /* special case for video frame drop */
++                              if (mask == DMA_IRQ_VIDEO_DROP)
++                                      unmap_ctrl = dev->control + i - 1;
++
++                              /* unmap memory */
++                              dma_unmap_single(dev->dev, unmap_ctrl->desc,
++                                      unmap_ctrl->desc_len, DMA_TO_DEVICE);
++                              unmap_ctrl->desc = 0;
++
++                              if (ctrl->callback)
++                                      ctrl->callback(mask,
++                                              ctrl->callback_data);
++                      }
++              }
++
++              iowrite32(ier, dev->membase + TIMBDMA_IER);
++              return IRQ_HANDLED;
++      } else {
++              iowrite32(ier, dev->membase + TIMBDMA_IER);
++              return IRQ_NONE;
++      }
++}
++
++static int __timbdma_start(struct timbdma_dev *dev, int index,
++      struct dma_desc *dma_desc, int bytes_per_row)
++{
++      u32 offset;
++      unsigned long flags;
++      struct timbdma_control *ctrl;
++      int err;
++
++      ctrl = dev->control + index;
++
++      BUG_ON(ctrl->desc);
++
++      /* check if we already have a descriptor */
++      if (ctrl->desc)
++              return -EALREADY;
++
++      /* map up the descriptor */
++      ctrl->desc = dma_map_single(dev->dev, dma_desc->buf, dma_desc->len,
++              DMA_TO_DEVICE);
++      err = dma_mapping_error(dev->dev, ctrl->desc);
++      if (err) {
++              ctrl->desc = 0;
++              return err;
++      }
++      ctrl->desc_len = dma_desc->len;
++
++      /* now enable the DMA transfer */
++      offset = index / 2 * 0x40;
++
++      spin_lock_irqsave(&dev->lock, flags);
++      if (!(index % 2)) {
++              /* RX */
++              /* descriptor address */
++              iowrite32(0, dev->membase + offset + TIMBDMA_OFFS_RX_DHAR);
++              iowrite32(ctrl->desc, dev->membase + offset +
++                      TIMBDMA_OFFS_RX_DLAR);
++              /* Bytes per line */
++              iowrite32(bytes_per_row, dev->membase + offset +
++                      TIMBDMA_OFFS_RX_BPRR);
++              /* enable RX */
++              iowrite32(TIMBDMA_RX_EN, dev->membase + offset +
++                      TIMBDMA_OFFS_RX_ER);
++      } else {
++              /* TX */
++              /* address high */
++              iowrite32(0, dev->membase + offset + TIMBDMA_OFFS_TX_DHAR);
++              iowrite32(ctrl->desc, dev->membase + offset +
++                      TIMBDMA_OFFS_TX_DLAR);
++      }
++      spin_unlock_irqrestore(&dev->lock, flags);
++
++      return 0;
++}
++int timbdma_start(u32 flag, void *desc, int bytes_per_row)
++{
++      int i;
++      struct timbdma_dev *dev = self_g;
++      struct dma_desc *dma_desc = desc;
++      int ret = 0;
++
++      /* only allow 1 flag bit to be set */
++      for (i = 0; i < DMA_IRQS && !(flag & (1 << i)); i++)
++              ;
++      if (i == DMA_IRQS || (flag & ~(1 << i)))
++              return -EINVAL;
++
++      if (!dev->membase) {
++              /* the physical DMA device has not showed up yet */
++              unsigned long flags;
++              struct timbdma_control *ctrl = dev->control + i;
++              BUG_ON(ctrl->stored_desc);
++              if (ctrl->stored_desc)
++                      ret = -EALREADY;
++              else {
++                      spin_lock_irqsave(&dev->lock, flags);
++                      ctrl->stored_desc = desc;
++                      ctrl->stored_bytes_per_row = bytes_per_row;
++                      spin_unlock_irqrestore(&dev->lock, flags);
++              }
++      } else
++              ret = __timbdma_start(dev, i, dma_desc, bytes_per_row);
++
++      if (ret)
++              printk(KERN_ERR DRIVER_NAME": Failed to start DMA: %d\n", ret);
++      return ret;
++}
++EXPORT_SYMBOL(timbdma_start);
++
++int timbdma_stop(u32 flags)
++{
++      int i;
++      unsigned long irqflags;
++      struct timbdma_dev *dev = self_g;
++      int ret = 0;
++
++      spin_lock_irqsave(&dev->lock, irqflags);
++
++      /* now disable the DMA transfers */
++      for (i = 0; i < DMA_IRQS; i++)
++              if (flags & (1 << i)) {
++                      /*
++                              RX enable registers are located at:
++                              0x14
++                              0x54
++                              0x94
++
++                              TX DESC ADDR LOW registers are located at:
++                              0x1C
++                              0x5C
++                      */
++                      struct timbdma_control *ctrl = dev->control + i;
++                      if (ctrl->desc) {
++                              u32 offset = i / 2 * 0x40;
++
++                              if (!(i % 2)) {
++                                      /* even -> RX enable */
++                                      offset += TIMBDMA_OFFS_RX_ER;
++                                      /** TODO: FIX received length */
++                              } else {
++                                      /* odd -> TX desc addr low */
++                                      offset += TIMBDMA_OFFS_TX_DLAR;
++                                      /** TODO: FIX written lenth */
++                              }
++
++                              if (dev->membase)
++                                      iowrite32(0, dev->membase + offset);
++
++                              dma_unmap_single(dev->dev, ctrl->desc,
++                                              ctrl->desc_len, DMA_TO_DEVICE);
++                              ctrl->desc = 0;
++                      } else if (ctrl->stored_desc)
++                              ctrl->stored_desc = NULL;
++              }
++
++      if (dev->membase)
++              /* ack any pending IRQs */
++              iowrite32(flags, dev->membase + TIMBDMA_ISR);
++
++      spin_unlock_irqrestore(&dev->lock, irqflags);
++
++      return ret;
++}
++EXPORT_SYMBOL(timbdma_stop);
++
++void timbdma_set_interruptcb(u32 flags, timbdma_interruptcb icb, void *data)
++{
++      int i;
++      unsigned long irqflags;
++      struct timbdma_dev *dev = self_g;
++      u32 ier;
++
++      spin_lock_irqsave(&dev->lock, irqflags);
++
++      for (i = 0; i < DMA_IRQS; i++)
++              if (flags & (1 << i)) {
++                      struct timbdma_control *ctrl = dev->control + i;
++                      ctrl->callback = icb;
++                      ctrl->callback_data = data;
++              }
++
++      /* the DMA device might not have showed up yet */
++      if (dev->membase) {
++              /* Ack any pending IRQ */
++              iowrite32(flags, dev->membase + TIMBDMA_ISR);
++
++              /* if a null callback is given -> clear interrupt,
++               * else -> enable
++               */
++              ier = ioread32(dev->membase + TIMBDMA_IER);
++              if (icb != NULL)
++                      ier |= flags;
++              else
++                      ier &= ~flags;
++              iowrite32(ier, dev->membase + TIMBDMA_IER);
++      }
++
++      spin_unlock_irqrestore(&dev->lock, irqflags);
++}
++EXPORT_SYMBOL(timbdma_set_interruptcb);
++
++static void timbdma_start_operations(struct timbdma_dev *self)
++{
++      int i;
++      u32 ier;
++      unsigned long flags;
++
++      spin_lock_irqsave(&self->lock, flags);
++      ier = ioread32(self->membase + TIMBDMA_IER);
++      for (i = 0; i < DMA_IRQS; i++)
++              if (self->control[i].callback)
++                      ier |= 1 << i;
++      iowrite32(ier, self->membase + TIMBDMA_IER);
++      spin_unlock_irqrestore(&self->lock, flags);
++
++      /* look for any transfers that were started before the HW was
++       * available, and start them
++       */
++      for (i = 0; i < DMA_IRQS; i++) {
++              struct timbdma_control *ctrl = self->control + i;
++              if (ctrl->stored_desc) {
++                      struct dma_desc *dma_desc = ctrl->stored_desc;
++                      ctrl->stored_desc = NULL;
++                      if (__timbdma_start(self, i, dma_desc,
++                              ctrl->stored_bytes_per_row))
++                              printk(KERN_ERR DRIVER_NAME
++                                      ": Failed to start DMA\n");
++              }
++      }
++}
++
++
++static int timbdma_probe(struct platform_device *dev)
++{
++      int err, irq;
++      struct resource *iomem;
++      struct timbdma_dev *self = self_g;
++
++      iomem = platform_get_resource(dev, IORESOURCE_MEM, 0);
++      if (!iomem) {
++              err = -EINVAL;
++              goto err_request;
++      }
++
++      if (dev->dev.parent)
++              self->dev = dev->dev.parent;
++      else
++              self->dev = &dev->dev;
++
++      if (!request_mem_region(iomem->start,
++              resource_size(iomem), DRIVER_NAME)) {
++              err = -EBUSY;
++              goto err_request;
++      }
++
++      self->membase = ioremap(iomem->start, resource_size(iomem));
++      if (!self->membase) {
++              printk(KERN_ERR DRIVER_NAME ": Failed to remap I/O memory\n");
++              err = -ENOMEM;
++              goto err_ioremap;
++      }
++
++      /* 32bit addressing */
++      iowrite32(TIMBDMA_32BIT_ADDR, self->membase + TIMBDMA_ACR);
++
++      /* disable and clear any interrupts */
++      iowrite32(0x0, self->membase + TIMBDMA_IER);
++      iowrite32(0x0, self->membase + TIMBDMA_ISR);
++
++      /* register interrupt */
++      irq = platform_get_irq(dev, 0);
++      if (irq < 0) {
++              err = irq;
++              goto err_get_irq;
++      }
++
++      /* request IRQ */
++      err = request_irq(irq, timbdma_handleinterrupt, IRQF_SHARED,
++                        DRIVER_NAME, self);
++      if (err) {
++              printk(KERN_ERR DRIVER_NAME ": Failed to request IRQ\n");
++              goto err_get_irq;
++      }
++
++      platform_set_drvdata(dev, self);
++
++      /* assign the global pointer */
++      self_g = self;
++
++      timbdma_start_operations(self);
++
++      return 0;
++
++err_get_irq:
++      iounmap(self->membase);
++err_ioremap:
++      release_mem_region(iomem->start, resource_size(iomem));
++err_request:
++      printk(KERN_ERR DRIVER_NAME ": Failed to register Timberdale DMA: %d\n",
++              err);
++      self->membase = NULL;
++      self->dev = NULL;
++
++      return err;
++}
++
++static int timbdma_remove(struct platform_device *dev)
++{
++      struct timbdma_dev *self = platform_get_drvdata(dev);
++      struct resource *iomem = platform_get_resource(dev, IORESOURCE_MEM, 0);
++
++      free_irq(platform_get_irq(dev, 0), self);
++      iounmap(self->membase);
++      release_mem_region(iomem->start, resource_size(iomem));
++      self->membase = NULL;
++      self->dev = NULL;
++      return 0;
++}
++
++static struct platform_driver timbdma_platform_driver = {
++      .driver = {
++              .name   = DRIVER_NAME,
++              .owner  = THIS_MODULE,
++      },
++      .probe          = timbdma_probe,
++      .remove         = timbdma_remove,
++};
++
++/*--------------------------------------------------------------------------*/
++
++static int __init timbdma_init(void)
++{
++      struct timbdma_dev *self;
++      int err;
++
++      self = kzalloc(sizeof(*self), GFP_KERNEL);
++      if (!self)
++              return -ENOMEM;
++
++      spin_lock_init(&self->lock);
++
++      self_g = self;
++      err = platform_driver_register(&timbdma_platform_driver);
++      if (err)
++              kfree(self);
++
++      return err;
++}
++
++static void __exit timbdma_exit(void)
++{
++      platform_driver_unregister(&timbdma_platform_driver);
++      kfree(self_g);
++}
++
++module_init(timbdma_init);
++module_exit(timbdma_exit);
++
++MODULE_DESCRIPTION("Timberdale DMA driver");
++MODULE_AUTHOR("Mocean Laboratories <info@mocean-labs.com>");
++MODULE_LICENSE("GPL v2");
++MODULE_ALIAS("platform:"DRIVER_NAME);
++
+diff -uNr linux-2.6.31/drivers/mfd/timberdale.c linux-2.6.31.new/drivers/mfd/timberdale.c
+--- linux-2.6.31/drivers/mfd/timberdale.c      1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/mfd/timberdale.c  2009-10-23 11:17:29.000000000 -0700
+@@ -0,0 +1,914 @@
++/*
++ * timberdale.c timberdale FPGA mfd shim driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Timberdale FPGA
++ */
++
++#include <linux/kernel.h>
++#include <linux/module.h>
++#include <linux/pci.h>
++#include <linux/msi.h>
++#include <linux/init.h>
++#include <linux/interrupt.h>
++#include <linux/platform_device.h>
++#include <linux/mfd/core.h>
++#include <linux/irq.h>
++
++#include <linux/timb_gpio.h>
++
++#include <linux/i2c.h>
++#include <linux/i2c-ocores.h>
++#include <linux/i2c-xiic.h>
++#include <linux/i2c/tsc2007.h>
++#include <linux/can/platform/ascb.h>
++
++#include <linux/spi/spi.h>
++#include <linux/spi/xilinx_spi.h>
++#include <linux/spi/max7301.h>
++#include <linux/spi/mc33880.h>
++
++#include <media/timb_video.h>
++#include <media/timb_radio.h>
++#include <linux/most/timbmlb.h>
++
++#include <sound/timbi2s.h>
++
++#include "timberdale.h"
++
++#define DRIVER_NAME "timberdale"
++
++struct timberdale_device {
++      resource_size_t         intc_mapbase;
++      resource_size_t         ctl_mapbase;
++      unsigned char __iomem   *ctl_membase;
++      /* locking from interrupts while modifiying registers */
++      spinlock_t              lock;
++      struct {
++              u32 major;
++              u32 minor;
++              u32 config;
++      } fw;
++};
++
++/*--------------------------------------------------------------------------*/
++
++static struct tsc2007_platform_data timberdale_tsc2007_platform_data = {
++      .model = 2003,
++      .x_plate_ohms = 100
++};
++
++static struct ascb_platform_data timberdale_ascb_platform_data = {
++      .gpio_pin = GPIO_PIN_ASCB
++};
++
++static struct i2c_board_info timberdale_i2c_board_info[] = {
++      {
++              I2C_BOARD_INFO("tsc2007", 0x48),
++              .platform_data = &timberdale_tsc2007_platform_data,
++              .irq = IRQ_TIMBERDALE_TSC_INT
++      },
++      {
++              /* Requires jumper JP9 to be off */
++              I2C_BOARD_INFO("adv7180", 0x42 >> 1),
++              .irq = IRQ_TIMBERDALE_ADV7180
++      },
++      {
++              I2C_BOARD_INFO("tef6862", 0x60)
++      },
++      {
++              I2C_BOARD_INFO("saa7706h", 0x1C)
++      },
++      {
++              I2C_BOARD_INFO("ascb-can", 0x18),
++              .platform_data = &timberdale_ascb_platform_data,
++      }
++};
++
++static __devinitdata struct xiic_i2c_platform_data
++timberdale_xiic_platform_data = {
++      .devices = timberdale_i2c_board_info,
++      .num_devices = ARRAY_SIZE(timberdale_i2c_board_info)
++};
++
++static __devinitdata struct ocores_i2c_platform_data
++timberdale_ocores_platform_data = {
++      .regstep = 4,
++      .clock_khz = 62500,
++      .devices = timberdale_i2c_board_info,
++      .num_devices = ARRAY_SIZE(timberdale_i2c_board_info)
++};
++
++const static __devinitconst struct resource timberdale_xiic_resources[] = {
++      {
++              .start  = XIICOFFSET,
++              .end    = XIICEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_I2C,
++              .end    = IRQ_TIMBERDALE_I2C,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++const static __devinitconst struct resource timberdale_ocores_resources[] = {
++      {
++              .start  = OCORESOFFSET,
++              .end    = OCORESEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_I2C,
++              .end    = IRQ_TIMBERDALE_I2C,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++const struct max7301_platform_data timberdale_max7301_platform_data = {
++      .base = 200
++};
++
++const struct mc33880_platform_data timberdale_mc33880_platform_data = {
++      .base = 100
++};
++
++static struct spi_board_info timberdale_spi_16bit_board_info[] = {
++      {
++              .modalias = "max7301",
++              .max_speed_hz = 26000,
++              .chip_select = 2,
++              .mode = SPI_MODE_0,
++              .platform_data = &timberdale_max7301_platform_data
++      },
++};
++
++static struct spi_board_info timberdale_spi_8bit_board_info[] = {
++      {
++              .modalias = "mc33880",
++              .max_speed_hz = 4000,
++              .chip_select = 1,
++              .mode = SPI_MODE_1,
++              .platform_data = &timberdale_mc33880_platform_data
++      },
++};
++
++static __devinitdata struct xspi_platform_data timberdale_xspi_platform_data = {
++      /* Current(2009-03-06) revision of
++       * Timberdale we can handle 3 chip selects
++       */
++      .num_chipselect = 3,
++      /* bits per word and devices will be filled in runtime depending
++       * on the HW config
++       */
++};
++
++const static __devinitconst struct resource timberdale_spi_resources[] = {
++      {
++              .start  = SPIOFFSET,
++              .end    = SPIEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_SPI,
++              .end    = IRQ_TIMBERDALE_SPI,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++const static __devinitconst struct resource timberdale_eth_resources[] = {
++      {
++              .start  = ETHOFFSET,
++              .end    = ETHEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_ETHSW_IF,
++              .end    = IRQ_TIMBERDALE_ETHSW_IF,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++static __devinitdata struct timbgpio_platform_data
++      timberdale_gpio_platform_data = {
++      .gpio_base = 0,
++      .nr_pins = GPIO_NR_PINS,
++      .irq_base = 200,
++};
++
++const static __devinitconst struct resource timberdale_gpio_resources[] = {
++      {
++              .start  = GPIOOFFSET,
++              .end    = GPIOEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_GPIO,
++              .end    = IRQ_TIMBERDALE_GPIO,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++static __devinitdata struct timbmlb_platform_data
++      timberdale_mlb_platform_data = {
++      .reset_pin = GPIO_PIN_INIC_RST
++};
++
++const static __devinitconst struct resource timberdale_most_resources[] = {
++      {
++              .start  = MOSTOFFSET,
++              .end    = MOSTEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_MLB,
++              .end    = IRQ_TIMBERDALE_MLB,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++const static __devinitconst struct resource timberdale_mlogicore_resources[] = {
++      {
++              .start  = MLCOREOFFSET,
++              .end    = MLCOREEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_MLCORE,
++              .end    = IRQ_TIMBERDALE_MLCORE,
++              .flags  = IORESOURCE_IRQ,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_MLCORE_BUF,
++              .end    = IRQ_TIMBERDALE_MLCORE_BUF,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++const static __devinitconst struct resource timberdale_uart_resources[] = {
++      {
++              .start  = UARTOFFSET,
++              .end    = UARTEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_UART,
++              .end    = IRQ_TIMBERDALE_UART,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++const static __devinitconst struct resource timberdale_uartlite_resources[] = {
++      {
++              .start  = UARTLITEOFFSET,
++              .end    = UARTLITEEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_UARTLITE,
++              .end    = IRQ_TIMBERDALE_UARTLITE,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++static __devinitdata struct timbi2s_bus_data timbi2s_bus_data[] = {
++      {
++              .rx = 0,
++              .sample_rate = 8000,
++      },
++      {
++              .rx = 1,
++              .sample_rate = 8000,
++      },
++      {
++              .rx = 1,
++              .sample_rate = 44100,
++      },
++};
++
++static __devinitdata struct timbi2s_platform_data timbi2s_platform_data = {
++      .busses = timbi2s_bus_data,
++      .num_busses = ARRAY_SIZE(timbi2s_bus_data),
++      .main_clk = 62500000,
++};
++
++const static __devinitconst struct resource timberdale_i2s_resources[] = {
++      {
++              .start  = I2SOFFSET,
++              .end    = I2SEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_I2S,
++              .end    = IRQ_TIMBERDALE_I2S,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++static __devinitdata struct timb_video_platform_data
++      timberdale_video_platform_data = {
++      .i2c_adapter = 0,
++      .encoder = "adv7180"
++};
++
++const static __devinitconst struct resource timberdale_radio_resources[] = {
++      {
++              .start  = RDSOFFSET,
++              .end    = RDSEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_RDS,
++              .end    = IRQ_TIMBERDALE_RDS,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++static __devinitdata struct timb_radio_platform_data
++      timberdale_radio_platform_data = {
++      .i2c_adapter = 0,
++      .tuner = "tef6862",
++      .dsp = "saa7706h"
++};
++
++const static __devinitconst struct resource timberdale_video_resources[] = {
++      {
++              .start  = LOGIWOFFSET,
++              .end    = LOGIWEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      /*
++      note that the "frame buffer" is located in DMA area
++      starting at 0x1200000
++      */
++};
++
++const static __devinitconst struct resource timberdale_dma_resources[] = {
++      {
++              .start  = DMAOFFSET,
++              .end    = DMAEND,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_DMA,
++              .end    = IRQ_TIMBERDALE_DMA,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++static __devinitdata struct mfd_cell timberdale_cells_bar0_cfg0[] = {
++      {
++              .name = "timb-uart",
++              .num_resources = ARRAY_SIZE(timberdale_uart_resources),
++              .resources = timberdale_uart_resources,
++      },
++      {
++              .name = "xiic-i2c",
++              .num_resources = ARRAY_SIZE(timberdale_xiic_resources),
++              .resources = timberdale_xiic_resources,
++              .platform_data = &timberdale_xiic_platform_data,
++              .data_size = sizeof(timberdale_xiic_platform_data),
++      },
++      {
++              .name = "timb-gpio",
++              .num_resources = ARRAY_SIZE(timberdale_gpio_resources),
++              .resources = timberdale_gpio_resources,
++              .platform_data = &timberdale_gpio_platform_data,
++              .data_size = sizeof(timberdale_gpio_platform_data),
++      },
++      {
++              .name = "timb-i2s",
++              .num_resources = ARRAY_SIZE(timberdale_i2s_resources),
++              .resources = timberdale_i2s_resources,
++              .platform_data = &timbi2s_platform_data,
++              .data_size = sizeof(timbi2s_platform_data),
++      },
++      {
++              .name = "timb-most",
++              .num_resources = ARRAY_SIZE(timberdale_most_resources),
++              .resources = timberdale_most_resources,
++              .platform_data = &timberdale_mlb_platform_data,
++              .data_size = sizeof(timberdale_mlb_platform_data),
++      },
++      {
++              .name = "timb-video",
++              .num_resources = ARRAY_SIZE(timberdale_video_resources),
++              .resources = timberdale_video_resources,
++              .platform_data = &timberdale_video_platform_data,
++              .data_size = sizeof(timberdale_video_platform_data),
++      },
++      {
++              .name = "timb-radio",
++              .num_resources = ARRAY_SIZE(timberdale_radio_resources),
++              .resources = timberdale_radio_resources,
++              .platform_data = &timberdale_radio_platform_data,
++              .data_size = sizeof(timberdale_radio_platform_data),
++      },
++      {
++              .name = "xilinx_spi",
++              .num_resources = ARRAY_SIZE(timberdale_spi_resources),
++              .resources = timberdale_spi_resources,
++              .platform_data = &timberdale_xspi_platform_data,
++              .data_size = sizeof(timberdale_xspi_platform_data),
++      },
++      {
++              .name = "ks8842",
++              .num_resources = ARRAY_SIZE(timberdale_eth_resources),
++              .resources = timberdale_eth_resources,
++      },
++      {
++              .name = "timb-dma",
++              .num_resources = ARRAY_SIZE(timberdale_dma_resources),
++              .resources = timberdale_dma_resources,
++      },
++};
++
++static __devinitdata struct mfd_cell timberdale_cells_bar0_cfg1[] = {
++      {
++              .name = "timb-uart",
++              .num_resources = ARRAY_SIZE(timberdale_uart_resources),
++              .resources = timberdale_uart_resources,
++      },
++      {
++              .name = "uartlite",
++              .num_resources = ARRAY_SIZE(timberdale_uartlite_resources),
++              .resources = timberdale_uartlite_resources,
++      },
++      {
++              .name = "xiic-i2c",
++              .num_resources = ARRAY_SIZE(timberdale_xiic_resources),
++              .resources = timberdale_xiic_resources,
++              .platform_data = &timberdale_xiic_platform_data,
++              .data_size = sizeof(timberdale_xiic_platform_data),
++      },
++      {
++              .name = "timb-gpio",
++              .num_resources = ARRAY_SIZE(timberdale_gpio_resources),
++              .resources = timberdale_gpio_resources,
++              .platform_data = &timberdale_gpio_platform_data,
++              .data_size = sizeof(timberdale_gpio_platform_data),
++      },
++      {
++              .name = "timb-mlogicore",
++              .num_resources = ARRAY_SIZE(timberdale_mlogicore_resources),
++              .resources = timberdale_mlogicore_resources,
++      },
++      {
++              .name = "timb-video",
++              .num_resources = ARRAY_SIZE(timberdale_video_resources),
++              .resources = timberdale_video_resources,
++              .platform_data = &timberdale_video_platform_data,
++              .data_size = sizeof(timberdale_video_platform_data),
++      },
++      {
++              .name = "timb-radio",
++              .num_resources = ARRAY_SIZE(timberdale_radio_resources),
++              .resources = timberdale_radio_resources,
++              .platform_data = &timberdale_radio_platform_data,
++              .data_size = sizeof(timberdale_radio_platform_data),
++      },
++      {
++              .name = "xilinx_spi",
++              .num_resources = ARRAY_SIZE(timberdale_spi_resources),
++              .resources = timberdale_spi_resources,
++              .platform_data = &timberdale_xspi_platform_data,
++              .data_size = sizeof(timberdale_xspi_platform_data),
++      },
++      {
++              .name = "ks8842",
++              .num_resources = ARRAY_SIZE(timberdale_eth_resources),
++              .resources = timberdale_eth_resources,
++      },
++      {
++              .name = "timb-dma",
++              .num_resources = ARRAY_SIZE(timberdale_dma_resources),
++              .resources = timberdale_dma_resources,
++      },
++};
++
++static __devinitdata struct mfd_cell timberdale_cells_bar0_cfg2[] = {
++      {
++              .name = "timb-uart",
++              .num_resources = ARRAY_SIZE(timberdale_uart_resources),
++              .resources = timberdale_uart_resources,
++      },
++      {
++              .name = "xiic-i2c",
++              .num_resources = ARRAY_SIZE(timberdale_xiic_resources),
++              .resources = timberdale_xiic_resources,
++              .platform_data = &timberdale_xiic_platform_data,
++              .data_size = sizeof(timberdale_xiic_platform_data),
++      },
++      {
++              .name = "timb-gpio",
++              .num_resources = ARRAY_SIZE(timberdale_gpio_resources),
++              .resources = timberdale_gpio_resources,
++              .platform_data = &timberdale_gpio_platform_data,
++              .data_size = sizeof(timberdale_gpio_platform_data),
++      },
++      {
++              .name = "timb-video",
++              .num_resources = ARRAY_SIZE(timberdale_video_resources),
++              .resources = timberdale_video_resources,
++              .platform_data = &timberdale_video_platform_data,
++              .data_size = sizeof(timberdale_video_platform_data),
++      },
++      {
++              .name = "timb-radio",
++              .num_resources = ARRAY_SIZE(timberdale_radio_resources),
++              .resources = timberdale_radio_resources,
++              .platform_data = &timberdale_radio_platform_data,
++              .data_size = sizeof(timberdale_radio_platform_data),
++      },
++      {
++              .name = "xilinx_spi",
++              .num_resources = ARRAY_SIZE(timberdale_spi_resources),
++              .resources = timberdale_spi_resources,
++              .platform_data = &timberdale_xspi_platform_data,
++              .data_size = sizeof(timberdale_xspi_platform_data),
++      },
++      {
++              .name = "timb-dma",
++              .num_resources = ARRAY_SIZE(timberdale_dma_resources),
++              .resources = timberdale_dma_resources,
++      },
++};
++
++static __devinitdata struct mfd_cell timberdale_cells_bar0_cfg3[] = {
++      {
++              .name = "timb-uart",
++              .num_resources = ARRAY_SIZE(timberdale_uart_resources),
++              .resources = timberdale_uart_resources,
++      },
++      {
++              .name = "ocores-i2c",
++              .num_resources = ARRAY_SIZE(timberdale_ocores_resources),
++              .resources = timberdale_ocores_resources,
++              .platform_data = &timberdale_ocores_platform_data,
++              .data_size = sizeof(timberdale_ocores_platform_data),
++      },
++      {
++              .name = "timb-gpio",
++              .num_resources = ARRAY_SIZE(timberdale_gpio_resources),
++              .resources = timberdale_gpio_resources,
++              .platform_data = &timberdale_gpio_platform_data,
++              .data_size = sizeof(timberdale_gpio_platform_data),
++      },
++      {
++              .name = "timb-i2s",
++              .num_resources = ARRAY_SIZE(timberdale_i2s_resources),
++              .resources = timberdale_i2s_resources,
++              .platform_data = &timbi2s_platform_data,
++              .data_size = sizeof(timbi2s_platform_data),
++      },
++      {
++              .name = "timb-most",
++              .num_resources = ARRAY_SIZE(timberdale_most_resources),
++              .resources = timberdale_most_resources,
++              .platform_data = &timberdale_mlb_platform_data,
++              .data_size = sizeof(timberdale_mlb_platform_data),
++      },
++      {
++              .name = "timb-video",
++              .num_resources = ARRAY_SIZE(timberdale_video_resources),
++              .resources = timberdale_video_resources,
++              .platform_data = &timberdale_video_platform_data,
++              .data_size = sizeof(timberdale_video_platform_data),
++      },
++      {
++              .name = "timb-radio",
++              .num_resources = ARRAY_SIZE(timberdale_radio_resources),
++              .resources = timberdale_radio_resources,
++              .platform_data = &timberdale_radio_platform_data,
++              .data_size = sizeof(timberdale_radio_platform_data),
++      },
++      {
++              .name = "xilinx_spi",
++              .num_resources = ARRAY_SIZE(timberdale_spi_resources),
++              .resources = timberdale_spi_resources,
++              .platform_data = &timberdale_xspi_platform_data,
++              .data_size = sizeof(timberdale_xspi_platform_data),
++      },
++      {
++              .name = "ks8842",
++              .num_resources = ARRAY_SIZE(timberdale_eth_resources),
++              .resources = timberdale_eth_resources,
++      },
++      {
++              .name = "timb-dma",
++              .num_resources = ARRAY_SIZE(timberdale_dma_resources),
++              .resources = timberdale_dma_resources,
++      },
++};
++
++static const __devinitconst struct resource timberdale_sdhc_resources[] = {
++      /* located in bar 1 and bar 2 */
++      {
++              .start  = SDHC0OFFSET,
++              .end    = SDHC0END,
++              .flags  = IORESOURCE_MEM,
++      },
++      {
++              .start  = IRQ_TIMBERDALE_SDHC,
++              .end    = IRQ_TIMBERDALE_SDHC,
++              .flags  = IORESOURCE_IRQ,
++      },
++};
++
++static __devinitdata struct mfd_cell timberdale_cells_bar1[] = {
++      {
++              .name = "sdhci",
++              .num_resources = ARRAY_SIZE(timberdale_sdhc_resources),
++              .resources = timberdale_sdhc_resources,
++      },
++};
++
++static __devinitdata struct mfd_cell timberdale_cells_bar2[] = {
++      {
++              .name = "sdhci",
++              .num_resources = ARRAY_SIZE(timberdale_sdhc_resources),
++              .resources = timberdale_sdhc_resources,
++      },
++};
++
++static ssize_t show_fw_ver(struct device *dev, struct device_attribute *attr,
++      char *buf)
++{
++      struct pci_dev *pdev = to_pci_dev(dev);
++      struct timberdale_device *priv = pci_get_drvdata(pdev);
++
++      return sprintf(buf, "%d.%d.%d\n", priv->fw.major, priv->fw.minor,
++              priv->fw.config);
++}
++
++static DEVICE_ATTR(fw_ver, S_IRUGO, show_fw_ver, NULL);
++
++/*--------------------------------------------------------------------------*/
++
++static int __devinit timb_probe(struct pci_dev *dev,
++      const struct pci_device_id *id)
++{
++      struct timberdale_device *priv;
++      int err, i;
++      resource_size_t mapbase;
++      struct msix_entry *msix_entries = NULL;
++      u8 ip_setup;
++
++      priv = kzalloc(sizeof(*priv), GFP_KERNEL);
++      if (!priv)
++              return -ENOMEM;
++
++      spin_lock_init(&priv->lock);
++      pci_set_drvdata(dev, priv);
++
++      err = pci_enable_device(dev);
++      if (err)
++              goto err_enable;
++
++      mapbase = pci_resource_start(dev, 0);
++      if (!mapbase) {
++              printk(KERN_ERR DRIVER_NAME ": No resource\n");
++              goto err_start;
++      }
++
++      /* create a resource for the PCI master register */
++      priv->ctl_mapbase = mapbase + CHIPCTLOFFSET;
++      if (!request_mem_region(priv->ctl_mapbase, CHIPCTLSIZE, "timb-ctl")) {
++              printk(KERN_ERR DRIVER_NAME ": Failed to request ctl mem\n");
++              goto err_request;
++      }
++
++      priv->ctl_membase = ioremap(priv->ctl_mapbase, CHIPCTLSIZE);
++      if (!priv->ctl_membase) {
++              printk(KERN_ALERT DRIVER_NAME": Map error, ctl\n");
++              goto err_ioremap;
++      }
++
++      /* read the HW config */
++      priv->fw.major = ioread32(priv->ctl_membase + TIMB_REV_MAJOR);
++      priv->fw.minor = ioread32(priv->ctl_membase + TIMB_REV_MINOR);
++      priv->fw.config = ioread32(priv->ctl_membase + TIMB_HW_CONFIG);
++
++      if (priv->fw.major > TIMB_SUPPORTED_MAJOR) {
++              printk(KERN_ERR DRIVER_NAME": The driver supports an older "
++                      "version of the FPGA, please update the driver to "
++                      "support %d.%d\n", priv->fw.major, priv->fw.minor);
++              goto err_ioremap;
++      }
++      if (priv->fw.major < TIMB_SUPPORTED_MAJOR ||
++              priv->fw.minor < TIMB_REQUIRED_MINOR) {
++              printk(KERN_ERR DRIVER_NAME
++                      ": The FPGA image is too old (%d.%d), "
++                      "please upgrade the FPGA to at least: %d.%d\n",
++                      priv->fw.major, priv->fw.minor,
++                      TIMB_SUPPORTED_MAJOR, TIMB_REQUIRED_MINOR);
++              goto err_ioremap;
++      }
++
++      msix_entries = kzalloc(TIMBERDALE_NR_IRQS * sizeof(*msix_entries),
++              GFP_KERNEL);
++      if (!msix_entries)
++              goto err_ioremap;
++
++      for (i = 0; i < TIMBERDALE_NR_IRQS; i++)
++              msix_entries[i].entry = i;
++
++      err = pci_enable_msix(dev, msix_entries, TIMBERDALE_NR_IRQS);
++      if (err) {
++              printk(KERN_WARNING DRIVER_NAME
++                      ": MSI-X init failed: %d, expected entries: %d\n",
++                      err, TIMBERDALE_NR_IRQS);
++              goto err_msix;
++      }
++
++      err = device_create_file(&dev->dev, &dev_attr_fw_ver);
++      if (err)
++              goto err_create_file;
++
++      /* Reset all FPGA PLB peripherals */
++      iowrite32(0x1, priv->ctl_membase + TIMB_SW_RST);
++
++      /* update IRQ offsets in I2C board info */
++      for (i = 0; i < ARRAY_SIZE(timberdale_i2c_board_info); i++)
++              timberdale_i2c_board_info[i].irq =
++                      msix_entries[timberdale_i2c_board_info[i].irq].vector;
++
++      /* Update the SPI configuration depending on the HW (8 or 16 bit) */
++      if (priv->fw.config & TIMB_HW_CONFIG_SPI_8BIT) {
++              timberdale_xspi_platform_data.bits_per_word = 8;
++              timberdale_xspi_platform_data.devices =
++                      timberdale_spi_8bit_board_info;
++              timberdale_xspi_platform_data.num_devices =
++                      ARRAY_SIZE(timberdale_spi_8bit_board_info);
++      } else {
++              timberdale_xspi_platform_data.bits_per_word = 16;
++              timberdale_xspi_platform_data.devices =
++                      timberdale_spi_16bit_board_info;
++              timberdale_xspi_platform_data.num_devices =
++                      ARRAY_SIZE(timberdale_spi_16bit_board_info);
++      }
++
++      ip_setup = priv->fw.config & TIMB_HW_VER_MASK;
++      if (ip_setup == TIMB_HW_VER0)
++              err = mfd_add_devices(&dev->dev, -1,
++                      timberdale_cells_bar0_cfg0,
++                      ARRAY_SIZE(timberdale_cells_bar0_cfg0),
++                      &dev->resource[0], msix_entries[0].vector);
++      else if (ip_setup == TIMB_HW_VER1)
++              err = mfd_add_devices(&dev->dev, -1,
++                      timberdale_cells_bar0_cfg1,
++                      ARRAY_SIZE(timberdale_cells_bar0_cfg1),
++                      &dev->resource[0], msix_entries[0].vector);
++      else if (ip_setup == TIMB_HW_VER2)
++              err = mfd_add_devices(&dev->dev, -1,
++                      timberdale_cells_bar0_cfg2,
++                      ARRAY_SIZE(timberdale_cells_bar0_cfg2),
++                      &dev->resource[0], msix_entries[0].vector);
++      else if (ip_setup == TIMB_HW_VER3)
++              err = mfd_add_devices(&dev->dev, -1,
++                      timberdale_cells_bar0_cfg3,
++                      ARRAY_SIZE(timberdale_cells_bar0_cfg3),
++                      &dev->resource[0], msix_entries[0].vector);
++      else {
++              /* unknown version */
++              printk(KERN_ERR"Uknown IP setup: %d.%d.%d\n",
++                      priv->fw.major, priv->fw.minor, ip_setup);
++              err = -ENODEV;
++              goto err_mfd;
++      }
++
++      if (err) {
++              printk(KERN_WARNING DRIVER_NAME
++                      ": mfd_add_devices failed: %d\n", err);
++              goto err_mfd;
++      }
++
++      err = mfd_add_devices(&dev->dev, 0,
++              timberdale_cells_bar1, ARRAY_SIZE(timberdale_cells_bar1),
++              &dev->resource[1], msix_entries[0].vector);
++      if (err) {
++              printk(KERN_WARNING DRIVER_NAME
++                      "mfd_add_devices failed: %d\n", err);
++              goto err_mfd2;
++      }
++
++      /* only version 0 and 3 have the iNand routed to SDHCI */
++      if (((priv->fw.config & TIMB_HW_VER_MASK) == TIMB_HW_VER0) ||
++              ((priv->fw.config & TIMB_HW_VER_MASK) == TIMB_HW_VER3)) {
++              err = mfd_add_devices(&dev->dev, 1, timberdale_cells_bar2,
++                      ARRAY_SIZE(timberdale_cells_bar2),
++                      &dev->resource[2], msix_entries[0].vector);
++              if (err) {
++                      printk(KERN_WARNING DRIVER_NAME
++                              ": mfd_add_devices failed: %d\n", err);
++                      goto err_mfd2;
++              }
++      }
++
++      kfree(msix_entries);
++
++      printk(KERN_INFO
++              "Found Timberdale Card. Rev: %d.%d, HW config: 0x%02x\n",
++              priv->fw.major, priv->fw.minor, priv->fw.config);
++
++      return 0;
++
++err_mfd2:
++      mfd_remove_devices(&dev->dev);
++err_mfd:
++      device_remove_file(&dev->dev, &dev_attr_fw_ver);
++err_create_file:
++      pci_disable_msix(dev);
++err_msix:
++      iounmap(priv->ctl_membase);
++err_ioremap:
++      release_mem_region(priv->ctl_mapbase, CHIPCTLSIZE);
++err_request:
++      pci_set_drvdata(dev, NULL);
++err_start:
++      pci_disable_device(dev);
++err_enable:
++      kfree(msix_entries);
++      kfree(priv);
++      pci_set_drvdata(dev, NULL);
++      return -ENODEV;
++}
++
++static void __devexit timb_remove(struct pci_dev *dev)
++{
++      struct timberdale_device *priv = pci_get_drvdata(dev);
++
++      mfd_remove_devices(&dev->dev);
++
++      device_remove_file(&dev->dev, &dev_attr_fw_ver);
++
++      iounmap(priv->ctl_membase);
++      release_mem_region(priv->ctl_mapbase, CHIPCTLSIZE);
++
++      pci_disable_msix(dev);
++      pci_disable_device(dev);
++      pci_set_drvdata(dev, NULL);
++      kfree(priv);
++}
++
++static struct pci_device_id timberdale_pci_tbl[] = {
++      { PCI_DEVICE(PCI_VENDOR_ID_TIMB, PCI_DEVICE_ID_TIMB) },
++      { 0 }
++};
++MODULE_DEVICE_TABLE(pci, timberdale_pci_tbl);
++
++static struct pci_driver timberdale_pci_driver = {
++      .name = DRIVER_NAME,
++      .id_table = timberdale_pci_tbl,
++      .probe = timb_probe,
++      .remove = __devexit_p(timb_remove),
++};
++
++static int __init timberdale_init(void)
++{
++      int err;
++
++      err = pci_register_driver(&timberdale_pci_driver);
++      if (err < 0) {
++              printk(KERN_ERR
++                      "Failed to register PCI driver for %s device.\n",
++                      timberdale_pci_driver.name);
++              return -ENODEV;
++      }
++
++      printk(KERN_INFO "Driver for %s has been successfully registered.\n",
++              timberdale_pci_driver.name);
++
++      return 0;
++}
++
++static void __exit timberdale_exit(void)
++{
++      pci_unregister_driver(&timberdale_pci_driver);
++
++      printk(KERN_INFO "Driver for %s has been successfully unregistered.\n",
++                              timberdale_pci_driver.name);
++}
++
++module_init(timberdale_init);
++module_exit(timberdale_exit);
++
++MODULE_AUTHOR("Mocean Laboratories <info@mocean-labs.com>");
++MODULE_VERSION(DRV_VERSION);
++MODULE_LICENSE("GPL v2");
++
+diff -uNr linux-2.6.31/drivers/mfd/timberdale.h linux-2.6.31.new/drivers/mfd/timberdale.h
+--- linux-2.6.31/drivers/mfd/timberdale.h      1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/mfd/timberdale.h  2009-10-23 11:17:29.000000000 -0700
+@@ -0,0 +1,152 @@
++/*
++ * timberdale.h timberdale FPGA mfd shim driver defines
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Timberdale FPGA
++ */
++
++#ifndef MFD_TIMBERDALE_H
++#define MFD_TIMBERDALE_H
++
++#define DRV_VERSION           "1.0"
++
++/* This driver only support versions >= 3.8 and < 4.0  */
++#define TIMB_SUPPORTED_MAJOR  3
++
++/* This driver only support minor >= 8 */
++#define TIMB_REQUIRED_MINOR   8
++
++/* Registers of the interrupt controller */
++#define ISR           0x00
++#define IPR           0x04
++#define IER           0x08
++#define IAR           0x0c
++#define SIE           0x10
++#define CIE           0x14
++#define MER           0x1c
++
++/* Registers of the control area */
++#define TIMB_REV_MAJOR        0x00
++#define TIMB_REV_MINOR        0x04
++#define TIMB_HW_CONFIG        0x08
++#define TIMB_SW_RST   0x40
++
++/* bits in the TIMB_HW_CONFIG register */
++#define TIMB_HW_CONFIG_SPI_8BIT       0x80
++
++#define TIMB_HW_VER_MASK      0x0f
++#define TIMB_HW_VER0          0x00
++#define TIMB_HW_VER1          0x01
++#define TIMB_HW_VER2          0x02
++#define TIMB_HW_VER3          0x03
++
++#define OCORESOFFSET  0x0
++#define OCORESEND     0x1f
++
++#define SPIOFFSET     0x80
++#define SPIEND                0xff
++
++#define UARTLITEOFFSET        0x100
++#define UARTLITEEND   0x10f
++
++#define RDSOFFSET     0x180
++#define RDSEND                0x183
++
++#define ETHOFFSET     0x300
++#define ETHEND                0x3ff
++
++#define GPIOOFFSET    0x400
++#define GPIOEND               0x7ff
++
++#define CHIPCTLOFFSET 0x800
++#define CHIPCTLEND    0x8ff
++#define CHIPCTLSIZE   (CHIPCTLEND - CHIPCTLOFFSET)
++
++#define INTCOFFSET    0xc00
++#define INTCEND               0xfff
++#define INTCSIZE      (INTCEND - INTCOFFSET)
++
++#define MOSTOFFSET    0x1000
++#define MOSTEND               0x13ff
++
++#define UARTOFFSET    0x1400
++#define UARTEND               0x17ff
++
++#define XIICOFFSET    0x1800
++#define XIICEND               0x19ff
++
++#define I2SOFFSET     0x1C00
++#define I2SEND                0x1fff
++
++#define LOGIWOFFSET   0x30000
++#define LOGIWEND      0x37fff
++
++#define MLCOREOFFSET  0x40000
++#define MLCOREEND     0x43fff
++
++#define DMAOFFSET     0x01000000
++#define DMAEND                0x013fffff
++
++/* SDHC0 is placed in PCI bar 1 */
++#define SDHC0OFFSET   0x00
++#define SDHC0END      0xff
++
++/* SDHC1 is placed in PCI bar 2 */
++#define SDHC1OFFSET   0x00
++#define SDHC1END      0xff
++
++#define PCI_VENDOR_ID_TIMB    0x10ee
++#define PCI_DEVICE_ID_TIMB    0xa123
++
++#define IRQ_TIMBERDALE_INIC   0
++#define IRQ_TIMBERDALE_MLB    1
++#define IRQ_TIMBERDALE_GPIO   2
++#define IRQ_TIMBERDALE_I2C    3
++#define IRQ_TIMBERDALE_UART   4
++#define IRQ_TIMBERDALE_DMA    5
++#define IRQ_TIMBERDALE_I2S    6
++#define IRQ_TIMBERDALE_TSC_INT        7
++#define IRQ_TIMBERDALE_SDHC   8
++#define IRQ_TIMBERDALE_ADV7180        9
++#define IRQ_TIMBERDALE_ETHSW_IF       10
++#define IRQ_TIMBERDALE_SPI    11
++#define IRQ_TIMBERDALE_UARTLITE       12
++#define IRQ_TIMBERDALE_MLCORE         13
++#define IRQ_TIMBERDALE_MLCORE_BUF     14
++#define IRQ_TIMBERDALE_RDS    15
++
++#define TIMBERDALE_NR_IRQS    16
++
++/* Some of the interrupts are level triggered, some are edge triggered */
++#define IRQ_TIMBERDALE_EDGE_MASK ((1 << IRQ_TIMBERDALE_ADV7180) | \
++      (1 << IRQ_TIMBERDALE_TSC_INT) | \
++      (1 << IRQ_TIMBERDALE_MLB) | (1 << IRQ_TIMBERDALE_INIC))
++
++#define IRQ_TIMBERDALE_LEVEL_MASK ((1 << IRQ_TIMBERDALE_SPI) | \
++      (1 << IRQ_TIMBERDALE_ETHSW_IF) | (1 << IRQ_TIMBERDALE_SDHC) | \
++      (1 << IRQ_TIMBERDALE_I2S) | (1 << IRQ_TIMBERDALE_UART) | \
++      (1 << IRQ_TIMBERDALE_I2C) | (1 << IRQ_TIMBERDALE_GPIO) | \
++      (1 << IRQ_TIMBERDALE_DMA))
++
++#define GPIO_PIN_ASCB         8
++#define GPIO_PIN_INIC_RST     14
++#define GPIO_PIN_BT_RST               15
++#define GPIO_NR_PINS          16
++
++#endif
++
+diff -uNr linux-2.6.31/drivers/mmc/host/sdhci.c linux-2.6.31.new/drivers/mmc/host/sdhci.c
+--- linux-2.6.31/drivers/mmc/host/sdhci.c      2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/mmc/host/sdhci.c  2009-10-23 11:17:25.000000000 -0700
+@@ -652,7 +652,7 @@
+       count = sdhci_calc_timeout(host, data);
+       sdhci_writeb(host, count, SDHCI_TIMEOUT_CONTROL);
+-      if (host->flags & SDHCI_USE_DMA)
++      if (host->flags & (SDHCI_USE_SDMA | SDHCI_USE_ADMA))
+               host->flags |= SDHCI_REQ_USE_DMA;
+       /*
+@@ -1597,7 +1597,7 @@
+ {
+       int ret;
+-      if (host->flags & SDHCI_USE_DMA) {
++      if (host->flags & (SDHCI_USE_SDMA | SDHCI_USE_ADMA)) {
+               if (host->ops->enable_dma)
+                       host->ops->enable_dma(host);
+       }
+@@ -1678,23 +1678,20 @@
+       caps = sdhci_readl(host, SDHCI_CAPABILITIES);
+       if (host->quirks & SDHCI_QUIRK_FORCE_DMA)
+-              host->flags |= SDHCI_USE_DMA;
+-      else if (!(caps & SDHCI_CAN_DO_DMA))
+-              DBG("Controller doesn't have DMA capability\n");
++              host->flags |= SDHCI_USE_SDMA;
++      else if (!(caps & SDHCI_CAN_DO_SDMA))
++              DBG("Controller doesn't have SDMA capability\n");
+       else
+-              host->flags |= SDHCI_USE_DMA;
++              host->flags |= SDHCI_USE_SDMA;
+       if ((host->quirks & SDHCI_QUIRK_BROKEN_DMA) &&
+-              (host->flags & SDHCI_USE_DMA)) {
++              (host->flags & SDHCI_USE_SDMA)) {
+               DBG("Disabling DMA as it is marked broken\n");
+-              host->flags &= ~SDHCI_USE_DMA;
++              host->flags &= ~SDHCI_USE_SDMA;
+       }
+-      if (host->flags & SDHCI_USE_DMA) {
+-              if ((host->version >= SDHCI_SPEC_200) &&
+-                              (caps & SDHCI_CAN_DO_ADMA2))
+-                      host->flags |= SDHCI_USE_ADMA;
+-      }
++      if ((host->version >= SDHCI_SPEC_200) && (caps & SDHCI_CAN_DO_ADMA2))
++              host->flags |= SDHCI_USE_ADMA;
+       if ((host->quirks & SDHCI_QUIRK_BROKEN_ADMA) &&
+               (host->flags & SDHCI_USE_ADMA)) {
+@@ -1702,13 +1699,14 @@
+               host->flags &= ~SDHCI_USE_ADMA;
+       }
+-      if (host->flags & SDHCI_USE_DMA) {
++      if (host->flags & (SDHCI_USE_SDMA | SDHCI_USE_ADMA)) {
+               if (host->ops->enable_dma) {
+                       if (host->ops->enable_dma(host)) {
+                               printk(KERN_WARNING "%s: No suitable DMA "
+                                       "available. Falling back to PIO.\n",
+                                       mmc_hostname(mmc));
+-                              host->flags &= ~(SDHCI_USE_DMA | SDHCI_USE_ADMA);
++                              host->flags &=
++                                      ~(SDHCI_USE_SDMA | SDHCI_USE_ADMA);
+                       }
+               }
+       }
+@@ -1736,7 +1734,7 @@
+        * mask, but PIO does not need the hw shim so we set a new
+        * mask here in that case.
+        */
+-      if (!(host->flags & SDHCI_USE_DMA)) {
++      if (!(host->flags & (SDHCI_USE_SDMA | SDHCI_USE_ADMA))) {
+               host->dma_mask = DMA_BIT_MASK(64);
+               mmc_dev(host->mmc)->dma_mask = &host->dma_mask;
+       }
+@@ -1810,7 +1808,7 @@
+        */
+       if (host->flags & SDHCI_USE_ADMA)
+               mmc->max_hw_segs = 128;
+-      else if (host->flags & SDHCI_USE_DMA)
++      else if (host->flags & SDHCI_USE_SDMA)
+               mmc->max_hw_segs = 1;
+       else /* PIO */
+               mmc->max_hw_segs = 128;
+@@ -1893,10 +1891,10 @@
+       mmc_add_host(mmc);
+-      printk(KERN_INFO "%s: SDHCI controller on %s [%s] using %s%s\n",
++      printk(KERN_INFO "%s: SDHCI controller on %s [%s] using %s\n",
+               mmc_hostname(mmc), host->hw_name, dev_name(mmc_dev(mmc)),
+-              (host->flags & SDHCI_USE_ADMA)?"A":"",
+-              (host->flags & SDHCI_USE_DMA)?"DMA":"PIO");
++              (host->flags & SDHCI_USE_ADMA) ? "ADMA" :
++              (host->flags & SDHCI_USE_SDMA) ? "DMA" : "PIO");
+       sdhci_enable_card_detection(host);
+diff -uNr linux-2.6.31/drivers/mmc/host/sdhci.h linux-2.6.31.new/drivers/mmc/host/sdhci.h
+--- linux-2.6.31/drivers/mmc/host/sdhci.h      2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/mmc/host/sdhci.h  2009-10-23 11:17:25.000000000 -0700
+@@ -143,7 +143,7 @@
+ #define  SDHCI_CAN_DO_ADMA2   0x00080000
+ #define  SDHCI_CAN_DO_ADMA1   0x00100000
+ #define  SDHCI_CAN_DO_HISPD   0x00200000
+-#define  SDHCI_CAN_DO_DMA     0x00400000
++#define  SDHCI_CAN_DO_SDMA    0x00400000
+ #define  SDHCI_CAN_VDD_330    0x01000000
+ #define  SDHCI_CAN_VDD_300    0x02000000
+ #define  SDHCI_CAN_VDD_180    0x04000000
+@@ -250,7 +250,7 @@
+       spinlock_t              lock;           /* Mutex */
+       int                     flags;          /* Host attributes */
+-#define SDHCI_USE_DMA         (1<<0)          /* Host is DMA capable */
++#define SDHCI_USE_SDMA                (1<<0)          /* Host is SDMA capable */
+ #define SDHCI_USE_ADMA                (1<<1)          /* Host is ADMA capable */
+ #define SDHCI_REQ_USE_DMA     (1<<2)          /* Use DMA for this req. */
+ #define SDHCI_DEVICE_DEAD     (1<<3)          /* Device unresponsive */
+diff -uNr linux-2.6.31/drivers/mmc/host/sdhci-pci.c linux-2.6.31.new/drivers/mmc/host/sdhci-pci.c
+--- linux-2.6.31/drivers/mmc/host/sdhci-pci.c  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/mmc/host/sdhci-pci.c      2009-10-23 11:17:25.000000000 -0700
+@@ -395,7 +395,7 @@
+       if (((pdev->class & 0xFFFF00) == (PCI_CLASS_SYSTEM_SDHCI << 8)) &&
+               ((pdev->class & 0x0000FF) != PCI_SDHCI_IFDMA) &&
+-              (host->flags & SDHCI_USE_DMA)) {
++              (host->flags & SDHCI_USE_SDMA)) {
+               dev_warn(&pdev->dev, "Will use DMA mode even though HW "
+                       "doesn't fully claim to support it.\n");
+       }
+diff -uNr linux-2.6.31/drivers/net/Kconfig linux-2.6.31.new/drivers/net/Kconfig
+--- linux-2.6.31/drivers/net/Kconfig   2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/net/Kconfig       2009-10-23 11:17:23.000000000 -0700
+@@ -1730,6 +1730,16 @@
+         This platform driver is for Micrel KSZ8842 / KS8842
+         2-port ethernet switch chip (managed, VLAN, QoS).
++config KS8842_TIMB_DMA
++      bool "Use Timberdale specific DMA engine"
++      depends on KS8842 && MFD_TIMBERDALE
++      select MFD_TIMBERDALE_DMA
++      help
++        This option enables usage of the timberdale specific DMA engine
++        for the KS8842 driver. Rather than using PIO which results in
++        single accesses over PCIe, the DMA block of the timberdale FPGA
++        will burst data to and from the KS8842.
++
+ config KS8851
+        tristate "Micrel KS8851 SPI"
+        depends on SPI
+diff -uNr linux-2.6.31/drivers/net/ks8842.c linux-2.6.31.new/drivers/net/ks8842.c
+--- linux-2.6.31/drivers/net/ks8842.c  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/net/ks8842.c      2009-10-23 11:17:22.000000000 -0700
+@@ -26,11 +26,17 @@
+ #include <linux/netdevice.h>
+ #include <linux/etherdevice.h>
+ #include <linux/ethtool.h>
++#include <linux/mfd/timbdma.h>
+ #define DRV_NAME "ks8842"
+ /* Timberdale specific Registers */
+-#define REG_TIMB_RST  0x1c
++#define REG_TIMB_RST          0x1c
++#define REG_TIMB_FIFO         0x20
++#define REG_TIMB_ISR          0x24
++#define REG_TIMB_IER          0x28
++#define REG_TIMB_IAR          0x2C
++#define REQ_TIMB_DMA_RESUME   0x30
+ /* KS8842 registers */
+@@ -73,6 +79,11 @@
+ #define IRQ_RX_ERROR  0x0080
+ #define ENABLED_IRQS  (IRQ_LINK_CHANGE | IRQ_TX | IRQ_RX | IRQ_RX_STOPPED | \
+               IRQ_TX_STOPPED | IRQ_RX_OVERRUN | IRQ_RX_ERROR)
++#ifdef CONFIG_KS8842_TIMB_DMA
++      #define ENABLED_IRQS_IP (IRQ_LINK_CHANGE | IRQ_RX_STOPPED | \
++              IRQ_TX_STOPPED | IRQ_RX_OVERRUN | IRQ_RX_ERROR)
++      #define ENABLED_IRQS_DMA        (ENABLED_IRQS_IP | IRQ_RX)
++#endif
+ #define REG_ISR               0x02
+ #define REG_RXSR      0x04
+ #define RXSR_VALID    0x8000
+@@ -111,14 +122,50 @@
+ #define REG_P1CR4             0x02
+ #define REG_P1SR              0x04
++#ifdef CONFIG_KS8842_TIMB_DMA
++#define DMA_BUFFER_SIZE               2048
++
++#define DMA_DEV(a) ((a->dev->parent) ? a->dev->parent : a->dev)
++
++#define DMA_ONGOING(a) (a->dma_tx.ongoing | a->dma_rx.ongoing)
++
++struct ks8842_dma_ctl {
++      void            *desc;
++      void            *buf;
++      dma_addr_t      addr;
++      unsigned        ongoing;
++};
++
++struct ks8842_rx_dma_ctl {
++      void            *desc;
++      struct sk_buff  *skb;
++      dma_addr_t      addr;
++};
++
++#endif
++
+ struct ks8842_adapter {
+       void __iomem    *hw_addr;
+       int             irq;
+       struct tasklet_struct   tasklet;
+       spinlock_t      lock; /* spinlock to be interrupt safe */
+-      struct platform_device *pdev;
++      struct device *dev;
++      struct work_struct timeout_work;
++      struct net_device *netdev;
++#ifdef CONFIG_KS8842_TIMB_DMA
++      unsigned                use_dma;
++      struct ks8842_dma_ctl   dma_tx;
++      struct ks8842_rx_dma_ctl        dma_rx;
++#endif
+ };
++#ifdef CONFIG_KS8842_TIMB_DMA
++static inline void ks8842_resume_dma(struct ks8842_adapter *adapter)
++{
++      iowrite32(1, adapter->hw_addr + REQ_TIMB_DMA_RESUME);
++}
++#endif
++
+ static inline void ks8842_select_bank(struct ks8842_adapter *adapter, u16 bank)
+ {
+       iowrite16(bank, adapter->hw_addr + REG_SELECT_BANK);
+@@ -195,7 +242,6 @@
+       msleep(10);
+       iowrite16(0, adapter->hw_addr + REG_GRR);
+       */
+-      iowrite16(32, adapter->hw_addr + REG_SELECT_BANK);
+       iowrite32(0x1, adapter->hw_addr + REG_TIMB_RST);
+       msleep(20);
+ }
+@@ -203,8 +249,10 @@
+ static void ks8842_update_link_status(struct net_device *netdev,
+       struct ks8842_adapter *adapter)
+ {
++      u16 p1mbsr = ks8842_read16(adapter, 45, REG_P1MBSR);
++
+       /* check the status of the link */
+-      if (ks8842_read16(adapter, 45, REG_P1MBSR) & 0x4) {
++      if (p1mbsr & 0x4) {
+               netif_carrier_on(netdev);
+               netif_wake_queue(netdev);
+       } else {
+@@ -241,10 +289,8 @@
+       /* Enable QMU Transmit flow control / transmit padding / Transmit CRC */
+       ks8842_write16(adapter, 16, 0x000E, REG_TXCR);
+-      /* enable the receiver, uni + multi + broadcast + flow ctrl
+-              + crc strip */
+-      ks8842_write16(adapter, 16, 0x8 | 0x20 | 0x40 | 0x80 | 0x400,
+-              REG_RXCR);
++      /* enable the receiver, uni + multi + broadcast + crc strip */
++      ks8842_write16(adapter, 16, 0x8 | 0x20 | 0x40 | 0x80, REG_RXCR);
+       /* TX frame pointer autoincrement */
+       ks8842_write16(adapter, 17, 0x4000, REG_TXFDPR);
+@@ -261,13 +307,11 @@
+       /* enable no excessive collison drop */
+       ks8842_enable_bits(adapter, 32, 1 << 3, REG_SGCR2);
+-      /* Enable port 1 force flow control / back pressure / transmit / recv */
+-      ks8842_write16(adapter, 48, 0x1E07, REG_P1CR2);
++      /* Enable port 1 / back pressure / transmit / recv */
++      ks8842_write16(adapter, 48, 0xE07, REG_P1CR2);
+       /* restart port auto-negotiation */
+       ks8842_enable_bits(adapter, 49, 1 << 13, REG_P1CR4);
+-      /* only advertise 10Mbps */
+-      ks8842_clear_bits(adapter, 49, 3 << 2, REG_P1CR4);
+       /* Enable the transmitter */
+       ks8842_enable_tx(adapter);
+@@ -279,7 +323,17 @@
+       ks8842_write16(adapter, 18, 0xffff, REG_ISR);
+       /* enable interrupts */
+-      ks8842_write16(adapter, 18, ENABLED_IRQS, REG_IER);
++#ifdef CONFIG_KS8842_TIMB_DMA
++      if (adapter->use_dma) {
++              iowrite16(ENABLED_IRQS_IP, adapter->hw_addr + REG_TIMB_IER);
++              ks8842_write16(adapter, 18, ENABLED_IRQS_DMA, REG_IER);
++      } else {
++#endif
++              ks8842_write16(adapter, 18, ENABLED_IRQS, REG_IER);
++              iowrite16(ENABLED_IRQS, adapter->hw_addr + REG_TIMB_IER);
++#ifdef CONFIG_KS8842_TIMB_DMA
++      }
++#endif
+       /* enable the switch */
+       ks8842_write16(adapter, 32, 0x1, REG_SW_ID_AND_ENABLE);
+@@ -302,11 +356,73 @@
+       ks8842_write16(adapter, 39, mac, REG_MACAR3);
+ }
++static void ks8842_write_mac_addr(struct ks8842_adapter *adapter, u8 *mac)
++{
++      unsigned long flags;
++      unsigned i;
++
++      spin_lock_irqsave(&adapter->lock, flags);
++      for (i = 0; i < ETH_ALEN; i++) {
++              ks8842_write8(adapter, 2, mac[ETH_ALEN - i - 1], REG_MARL + i);
++              ks8842_write8(adapter, 39, mac[ETH_ALEN - i - 1],
++                      REG_MACAR1 + i);
++      }
++      spin_unlock_irqrestore(&adapter->lock, flags);
++}
++
+ static inline u16 ks8842_tx_fifo_space(struct ks8842_adapter *adapter)
+ {
+       return ks8842_read16(adapter, 16, REG_TXMIR) & 0x1fff;
+ }
++#ifdef CONFIG_KS8842_TIMB_DMA
++static int ks8842_tx_frame_dma(struct sk_buff *skb, struct net_device *netdev)
++{
++      struct ks8842_adapter *adapter = netdev_priv(netdev);
++      struct ks8842_dma_ctl *ctl = &adapter->dma_tx;
++      int err;
++      int len = skb->len + sizeof(u32);
++      u8 *buf = ctl->buf;
++
++      if (ctl->ongoing) {
++              dev_dbg(adapter->dev, "%s: TX ongoing\n", __func__);
++              /* transfer ongoing */
++              return NETDEV_TX_BUSY;
++      }
++
++      /* copy data to the TX buffer */
++      /* the control word, enable IRQ, port 1 and the length */
++      *buf++ = 0x00;
++      *buf++ = 0x01; /* Port 1 */
++      *buf++ = skb->len & 0xff;
++      *buf++ = (skb->len >> 8) & 0xff;
++      skb_copy_from_linear_data(skb, buf, skb->len);
++
++      dma_sync_single_range_for_device(DMA_DEV(adapter), ctl->addr, 0, len,
++              DMA_TO_DEVICE);
++
++      /* make sure the length is a multiple of 4 */
++      if (len % 4)
++              len += 4 - len % 4;
++
++      err = timbdma_prep_desc(ctl->desc, ctl->addr, len);
++      if (err)
++              return NETDEV_TX_BUSY;
++
++      ctl->ongoing = 1;
++      err = timbdma_start(DMA_IRQ_ETH_TX, ctl->desc, 0);
++      if (err) {
++              ctl->ongoing = 0;
++              return NETDEV_TX_BUSY;
++      }
++      netdev->stats.tx_bytes += skb->len;
++
++      dev_kfree_skb(skb);
++
++      return NETDEV_TX_OK;
++}
++#endif
++
+ static int ks8842_tx_frame(struct sk_buff *skb, struct net_device *netdev)
+ {
+       struct ks8842_adapter *adapter = netdev_priv(netdev);
+@@ -314,7 +430,7 @@
+       u32 *ptr = (u32 *)skb->data;
+       u32 ctrl;
+-      dev_dbg(&adapter->pdev->dev,
++      dev_dbg(adapter->dev,
+               "%s: len %u head %p data %p tail %p end %p\n",
+               __func__, skb->len, skb->head, skb->data,
+               skb_tail_pointer(skb), skb_end_pointer(skb));
+@@ -344,6 +460,104 @@
+       return NETDEV_TX_OK;
+ }
++#ifdef CONFIG_KS8842_TIMB_DMA
++static int __ks8842_start_new_rx_dma(struct net_device *netdev,
++      struct ks8842_adapter *adapter)
++{
++      struct ks8842_rx_dma_ctl *ctl = &adapter->dma_rx;
++      int err;
++
++      ctl->skb = netdev_alloc_skb(netdev, DMA_BUFFER_SIZE);
++      if (ctl->skb) {
++              ctl->addr = dma_map_single(DMA_DEV(adapter), ctl->skb->data,
++                      DMA_BUFFER_SIZE, DMA_FROM_DEVICE);
++              err = dma_mapping_error(DMA_DEV(adapter), ctl->addr);
++              if (unlikely(err)) {
++                      ctl->addr = 0;
++                      goto out;
++              }
++              err = timbdma_prep_desc(ctl->desc, ctl->addr, DMA_BUFFER_SIZE);
++              if (unlikely(err))
++                      goto out;
++              err = timbdma_start(DMA_IRQ_ETH_RX, ctl->desc, 0);
++              if (unlikely(err))
++                      goto out;
++      } else {
++              err = -ENOMEM;
++              ctl->addr = 0;
++              goto out;
++      }
++
++      return err;
++out:
++      if (ctl->addr)
++              dma_unmap_single(DMA_DEV(adapter), ctl->addr, DMA_BUFFER_SIZE,
++                      DMA_FROM_DEVICE);
++      ctl->addr = 0;
++      if (ctl->skb)
++              dev_kfree_skb(ctl->skb);
++
++      ctl->skb = NULL;
++
++      printk(KERN_ERR DRV_NAME": Failed to start RX DMA: %d\n", err);
++      return err;
++}
++
++static void ks8842_rx_frame_dma(struct net_device *netdev,
++      struct ks8842_adapter *adapter)
++{
++      struct ks8842_rx_dma_ctl *ctl = &adapter->dma_rx;
++      struct sk_buff *skb = ctl->skb;
++      dma_addr_t addr = ctl->addr;
++      u32 status;
++
++      /* kick next transfer going */
++      __ks8842_start_new_rx_dma(netdev, adapter);
++
++      /* now handle the data we got */
++      dma_unmap_single(DMA_DEV(adapter), addr, DMA_BUFFER_SIZE,
++              DMA_FROM_DEVICE);
++
++      status = *((u32 *)skb->data);
++
++      dev_dbg(adapter->dev, "%s - rx_data: status: %x\n",
++              __func__, status & 0xffff);
++
++      /* check the status */
++      if ((status & RXSR_VALID) && !(status & RXSR_ERROR)) {
++              int len = (status >> 16) & 0x7ff;
++
++              dev_dbg(adapter->dev, "%s, got package, len: %d, skb: %p\n",
++                      __func__, len, skb);
++
++              netdev->stats.rx_packets++;
++              netdev->stats.rx_bytes += len;
++              if (status & RXSR_MULTICAST)
++                      netdev->stats.multicast++;
++
++              /* we are not nice to the stack, we want to be nice
++               * to our DMA engine instead, reserve 4 bytes
++               * which is the status word
++               */
++              skb_reserve(skb, 4);
++              skb_put(skb, len);
++
++              skb->protocol = eth_type_trans(skb, netdev);
++              netif_rx(skb);
++      } else {
++              dev_dbg(adapter->dev, "RX error, status: %x\n", status);
++              netdev->stats.rx_errors++;
++              if (status & RXSR_TOO_LONG)
++                      netdev->stats.rx_length_errors++;
++              if (status & RXSR_CRC_ERROR)
++                      netdev->stats.rx_crc_errors++;
++              if (status & RXSR_RUNT)
++                      netdev->stats.rx_frame_errors++;
++              dev_kfree_skb(skb);
++      }
++}
++#endif
++
+ static void ks8842_rx_frame(struct net_device *netdev,
+       struct ks8842_adapter *adapter)
+ {
+@@ -352,14 +566,14 @@
+       status &= 0xffff;
+-      dev_dbg(&adapter->pdev->dev, "%s - rx_data: status: %x\n",
++      dev_dbg(adapter->dev, "%s - rx_data: status: %x\n",
+               __func__, status);
+       /* check the status */
+       if ((status & RXSR_VALID) && !(status & RXSR_ERROR)) {
+               struct sk_buff *skb = netdev_alloc_skb(netdev, len + 2);
+-              dev_dbg(&adapter->pdev->dev, "%s, got package, len: %d\n",
++              dev_dbg(adapter->dev, "%s, got package, len: %d\n",
+                       __func__, len);
+               if (skb) {
+                       u32 *data;
+@@ -386,7 +600,7 @@
+               } else
+                       netdev->stats.rx_dropped++;
+       } else {
+-              dev_dbg(&adapter->pdev->dev, "RX error, status: %x\n", status);
++              dev_dbg(adapter->dev, "RX error, status: %x\n", status);
+               netdev->stats.rx_errors++;
+               if (status & RXSR_TOO_LONG)
+                       netdev->stats.rx_length_errors++;
+@@ -409,7 +623,7 @@
+ void ks8842_handle_rx(struct net_device *netdev, struct ks8842_adapter *adapter)
+ {
+       u16 rx_data = ks8842_read16(adapter, 16, REG_RXMIR) & 0x1fff;
+-      dev_dbg(&adapter->pdev->dev, "%s Entry - rx_data: %d\n",
++      dev_dbg(adapter->dev, "%s Entry - rx_data: %d\n",
+               __func__, rx_data);
+       while (rx_data) {
+               ks8842_rx_frame(netdev, adapter);
+@@ -420,7 +634,7 @@
+ void ks8842_handle_tx(struct net_device *netdev, struct ks8842_adapter *adapter)
+ {
+       u16 sr = ks8842_read16(adapter, 16, REG_TXSR);
+-      dev_dbg(&adapter->pdev->dev, "%s - entry, sr: %x\n", __func__, sr);
++      dev_dbg(adapter->dev, "%s - entry, sr: %x\n", __func__, sr);
+       netdev->stats.tx_packets++;
+       if (netif_queue_stopped(netdev))
+               netif_wake_queue(netdev);
+@@ -429,7 +643,7 @@
+ void ks8842_handle_rx_overrun(struct net_device *netdev,
+       struct ks8842_adapter *adapter)
+ {
+-      dev_dbg(&adapter->pdev->dev, "%s: entry\n", __func__);
++      dev_dbg(adapter->dev, "%s: entry\n", __func__);
+       netdev->stats.rx_errors++;
+       netdev->stats.rx_fifo_errors++;
+ }
+@@ -448,20 +662,33 @@
+       spin_unlock_irqrestore(&adapter->lock, flags);
+       isr = ks8842_read16(adapter, 18, REG_ISR);
+-      dev_dbg(&adapter->pdev->dev, "%s - ISR: 0x%x\n", __func__, isr);
++      dev_dbg(adapter->dev, "%s - ISR: 0x%x\n", __func__, isr);
++
++#ifdef CONFIG_KS8842_TIMB_DMA
++      if (adapter->use_dma)
++              isr &= ~IRQ_RX;
++#endif
+       /* Ack */
+       ks8842_write16(adapter, 18, isr, REG_ISR);
++      /* Ack in the timberdale IP as well */
++      iowrite32(0x1, adapter->hw_addr + REG_TIMB_IAR);
++
+       if (!netif_running(netdev))
+               return;
+       if (isr & IRQ_LINK_CHANGE)
+               ks8842_update_link_status(netdev, adapter);
++      /* should not get IRQ_RX when in DMA mode */
+       if (isr & (IRQ_RX | IRQ_RX_ERROR))
+-              ks8842_handle_rx(netdev, adapter);
++#ifdef CONFIG_KS8842_TIMB_DMA
++              if (!adapter->use_dma)
++#endif
++                      ks8842_handle_rx(netdev, adapter);
++      /* should only happen when not doing DMA */
+       if (isr & IRQ_TX)
+               ks8842_handle_tx(netdev, adapter);
+@@ -480,8 +707,18 @@
+       /* re-enable interrupts, put back the bank selection register */
+       spin_lock_irqsave(&adapter->lock, flags);
+-      ks8842_write16(adapter, 18, ENABLED_IRQS, REG_IER);
++#ifdef CONFIG_KS8842_TIMB_DMA
++      if (adapter->use_dma)
++              ks8842_write16(adapter, 18, ENABLED_IRQS_DMA, REG_IER);
++      else
++#endif
++              ks8842_write16(adapter, 18, ENABLED_IRQS, REG_IER);
++
+       iowrite16(entry_bank, adapter->hw_addr + REG_SELECT_BANK);
++#ifdef CONFIG_KS8842_TIMB_DMA
++      /* resume DMA operations */
++      ks8842_resume_dma(adapter);
++#endif
+       spin_unlock_irqrestore(&adapter->lock, flags);
+ }
+@@ -493,11 +730,17 @@
+       irqreturn_t ret = IRQ_NONE;
+       isr = ks8842_read16(adapter, 18, REG_ISR);
+-      dev_dbg(&adapter->pdev->dev, "%s - ISR: 0x%x\n", __func__, isr);
++      dev_dbg(adapter->dev, "%s - ISR: 0x%x\n", __func__, isr);
+       if (isr) {
+-              /* disable IRQ */
+-              ks8842_write16(adapter, 18, 0x00, REG_IER);
++#ifdef CONFIG_KS8842_TIMB_DMA
++              if (adapter->use_dma)
++                      /* disable all but RX IRQ, since the FPGA relies on it*/
++                      ks8842_write16(adapter, 18, IRQ_RX, REG_IER);
++              else
++#endif
++                      /* disable IRQ */
++                      ks8842_write16(adapter, 18, 0x00, REG_IER);
+               /* schedule tasklet */
+               tasklet_schedule(&adapter->tasklet);
+@@ -506,23 +749,129 @@
+       }
+       iowrite16(entry_bank, adapter->hw_addr + REG_SELECT_BANK);
+-
++#ifdef CONFIG_KS8842_TIMB_DMA
++      ks8842_resume_dma(adapter);
++#endif
+       return ret;
+ }
++#ifdef CONFIG_KS8842_TIMB_DMA
++static int ks8842_dma_irq(u32 flag, void *data)
++{
++      struct net_device       *netdev = data;
++      struct ks8842_adapter   *adapter = netdev_priv(netdev);
++
++      if (flag & DMA_IRQ_ETH_RX) {
++              dev_dbg(adapter->dev, "RX DMA finished\n");
++              ks8842_rx_frame_dma(netdev, adapter);
++      }
++      if (flag & DMA_IRQ_ETH_TX) {
++              struct ks8842_dma_ctl *ctl = &adapter->dma_tx;
++              dev_dbg(adapter->dev, "TX DMA finished\n");
++
++              netdev->stats.tx_packets++;
++              ctl->ongoing = 0;
++
++              if (netif_queue_stopped(netdev))
++                      netif_wake_queue(netdev);
++      }
++
++      return 0;
++}
++
++static void ks8842_dealloc_dma_bufs(struct ks8842_adapter *adapter)
++{
++      struct ks8842_dma_ctl *tx_ctl = &adapter->dma_tx;
++      struct ks8842_rx_dma_ctl *rx_ctl = &adapter->dma_rx;
++
++      if (tx_ctl->ongoing)
++              timbdma_stop(DMA_IRQ_ETH_TX);
++      tx_ctl->ongoing = 0;
++      if (rx_ctl->skb)
++              timbdma_stop(DMA_IRQ_ETH_RX);
++
++      timbdma_set_interruptcb(DMA_IRQ_ETH_RX | DMA_IRQ_ETH_TX, NULL, NULL);
++
++      if (rx_ctl->desc)
++              timbdma_free_desc(rx_ctl->desc);
++      rx_ctl->desc = NULL;
++      if (tx_ctl->desc)
++              timbdma_free_desc(tx_ctl->desc);
++      tx_ctl->desc = NULL;
++      if (rx_ctl->addr)
++              dma_unmap_single(DMA_DEV(adapter), rx_ctl->addr,
++                      DMA_BUFFER_SIZE, DMA_FROM_DEVICE);
++      rx_ctl->addr = 0;
++      if (tx_ctl->addr)
++              dma_unmap_single(DMA_DEV(adapter), tx_ctl->addr,
++                      DMA_BUFFER_SIZE, DMA_TO_DEVICE);
++      tx_ctl->addr = 0;
++      dev_kfree_skb(rx_ctl->skb);
++      rx_ctl->skb = NULL;
++      kfree(tx_ctl->buf);
++      tx_ctl->buf = NULL;
++}
++#endif
+ /* Netdevice operations */
+ static int ks8842_open(struct net_device *netdev)
+ {
+       struct ks8842_adapter *adapter = netdev_priv(netdev);
++#ifdef CONFIG_KS8842_TIMB_DMA
++      struct ks8842_dma_ctl *tx_ctl = &adapter->dma_tx;
++      struct ks8842_rx_dma_ctl *rx_ctl = &adapter->dma_rx;
++      int use_dma = 0;
++#endif
+       int err;
+-      dev_dbg(&adapter->pdev->dev, "%s - entry\n", __func__);
++      dev_dbg(adapter->dev, "%s - entry\n", __func__);
++
++#ifdef CONFIG_KS8842_TIMB_DMA
++      if (adapter->use_dma) {
++              /* allocate SG descriptor */
++              tx_ctl->buf = kmalloc(DMA_BUFFER_SIZE, GFP_KERNEL);
++              if (!tx_ctl->buf)
++                      goto no_dma;
++              tx_ctl->addr = dma_map_single(DMA_DEV(adapter), tx_ctl->buf,
++                      DMA_BUFFER_SIZE, DMA_TO_DEVICE);
++              err = dma_mapping_error(DMA_DEV(adapter), tx_ctl->addr);
++              if (err) {
++                      tx_ctl->addr = 0;
++                      goto no_dma;
++              }
++              tx_ctl->desc = timbdma_alloc_desc(DMA_BUFFER_SIZE, 1);
++              if (!tx_ctl->desc)
++                      goto no_dma;
++
++              rx_ctl->desc = timbdma_alloc_desc(DMA_BUFFER_SIZE, 1);
++              if (!rx_ctl->desc)
++                      goto no_dma;
++
++              timbdma_set_interruptcb(DMA_IRQ_ETH_RX | DMA_IRQ_ETH_TX,
++                      ks8842_dma_irq, (void *)netdev);
++
++              /* start RX dma */
++              err = __ks8842_start_new_rx_dma(netdev, adapter);
++              if (err)
++                      goto no_dma;
++
++              use_dma = 1;
++      }
++no_dma:
++      if (!use_dma) {
++              printk(KERN_WARNING DRV_NAME
++                      ": Failed to initiate DMA, falling back to PIO\n");
++              ks8842_dealloc_dma_bufs(adapter);
++              adapter->use_dma = 0;
++      }
++#endif
+       /* reset the HW */
+       ks8842_reset_hw(adapter);
++      ks8842_write_mac_addr(adapter, netdev->dev_addr);
++
+       ks8842_update_link_status(netdev, adapter);
+       err = request_irq(adapter->irq, ks8842_irq, IRQF_SHARED, DRV_NAME,
+@@ -536,11 +885,19 @@
+       return 0;
+ }
++
+ static int ks8842_close(struct net_device *netdev)
+ {
+       struct ks8842_adapter *adapter = netdev_priv(netdev);
+-      dev_dbg(&adapter->pdev->dev, "%s - entry\n", __func__);
++      dev_dbg(adapter->dev, "%s - entry\n", __func__);
++
++      cancel_work_sync(&adapter->timeout_work);
++
++#ifdef CONFIG_KS8842_TIMB_DMA
++      if (adapter->use_dma)
++              ks8842_dealloc_dma_bufs(adapter);
++#endif
+       /* free the irq */
+       free_irq(adapter->irq, adapter);
+@@ -556,8 +913,20 @@
+       int ret;
+       struct ks8842_adapter *adapter = netdev_priv(netdev);
+-      dev_dbg(&adapter->pdev->dev, "%s: entry\n", __func__);
++      dev_dbg(adapter->dev, "%s: entry\n", __func__);
++#ifdef CONFIG_KS8842_TIMB_DMA
++      if (adapter->use_dma) {
++              unsigned long flags;
++              ret = ks8842_tx_frame_dma(skb, netdev);
++              /* for now only allow one transfer at the time */
++              spin_lock_irqsave(&adapter->lock, flags);
++              if (adapter->dma_tx.ongoing)
++                      netif_stop_queue(netdev);
++              spin_unlock_irqrestore(&adapter->lock, flags);
++              return ret;
++      }
++#endif
+       ret = ks8842_tx_frame(skb, netdev);
+       if (ks8842_tx_fifo_space(adapter) <  netdev->mtu + 8)
+@@ -569,44 +938,77 @@
+ static int ks8842_set_mac(struct net_device *netdev, void *p)
+ {
+       struct ks8842_adapter *adapter = netdev_priv(netdev);
+-      unsigned long flags;
+       struct sockaddr *addr = p;
+       char *mac = (u8 *)addr->sa_data;
+-      int i;
+-      dev_dbg(&adapter->pdev->dev, "%s: entry\n", __func__);
++      dev_dbg(adapter->dev, "%s: entry\n", __func__);
+       if (!is_valid_ether_addr(addr->sa_data))
+               return -EADDRNOTAVAIL;
+       memcpy(netdev->dev_addr, mac, netdev->addr_len);
+-      spin_lock_irqsave(&adapter->lock, flags);
+-      for (i = 0; i < ETH_ALEN; i++) {
+-              ks8842_write8(adapter, 2, mac[ETH_ALEN - i - 1], REG_MARL + i);
+-              ks8842_write8(adapter, 39, mac[ETH_ALEN - i - 1],
+-                      REG_MACAR1 + i);
+-      }
+-      spin_unlock_irqrestore(&adapter->lock, flags);
++      ks8842_write_mac_addr(adapter, mac);
+       return 0;
+ }
+-static void ks8842_tx_timeout(struct net_device *netdev)
++static void ks8842_tx_timeout_work(struct work_struct *work)
+ {
+-      struct ks8842_adapter *adapter = netdev_priv(netdev);
++      struct ks8842_adapter *adapter =
++              container_of(work, struct ks8842_adapter, timeout_work);
++      struct net_device *netdev = adapter->netdev;
+       unsigned long flags;
+-      dev_dbg(&adapter->pdev->dev, "%s: entry\n", __func__);
++      dev_dbg(adapter->dev, "%s: entry\n", __func__);
+       spin_lock_irqsave(&adapter->lock, flags);
++#ifdef CONFIG_KS8842_TIMB_DMA
++      if (adapter->use_dma) {
++              struct ks8842_dma_ctl *tx_ctl = &adapter->dma_tx;
++              struct ks8842_rx_dma_ctl *rx_ctl = &adapter->dma_rx;
++
++              if (tx_ctl->ongoing)
++                      timbdma_stop(DMA_IRQ_ETH_TX);
++              tx_ctl->ongoing = 0;
++
++              timbdma_stop(DMA_IRQ_ETH_RX);
++
++              dma_unmap_single(DMA_DEV(adapter), rx_ctl->addr,
++                      DMA_BUFFER_SIZE, DMA_FROM_DEVICE);
++              rx_ctl->addr = 0;
++
++              dev_kfree_skb(rx_ctl->skb);
++              rx_ctl->skb = NULL;
++      }
++#endif
++
+       /* disable interrupts */
+       ks8842_write16(adapter, 18, 0, REG_IER);
+       ks8842_write16(adapter, 18, 0xFFFF, REG_ISR);
++
++      netif_stop_queue(netdev);
++
+       spin_unlock_irqrestore(&adapter->lock, flags);
+       ks8842_reset_hw(adapter);
++      ks8842_write_mac_addr(adapter, netdev->dev_addr);
++
+       ks8842_update_link_status(netdev, adapter);
++
++#ifdef CONFIG_KS8842_TIMB_DMA
++      if (adapter->use_dma)
++              __ks8842_start_new_rx_dma(netdev, adapter);
++#endif
++}
++
++static void ks8842_tx_timeout(struct net_device *netdev)
++{
++      struct ks8842_adapter *adapter = netdev_priv(netdev);
++
++      dev_dbg(adapter->dev, "%s: entry\n", __func__);
++
++      schedule_work(&adapter->timeout_work);
+ }
+ static const struct net_device_ops ks8842_netdev_ops = {
+@@ -641,6 +1043,8 @@
+       SET_NETDEV_DEV(netdev, &pdev->dev);
+       adapter = netdev_priv(netdev);
++      adapter->netdev = netdev;
++      INIT_WORK(&adapter->timeout_work, ks8842_tx_timeout_work);
+       adapter->hw_addr = ioremap(iomem->start, resource_size(iomem));
+       if (!adapter->hw_addr)
+               goto err_ioremap;
+@@ -651,8 +1055,10 @@
+               goto err_get_irq;
+       }
+-      adapter->pdev = pdev;
+-
++      adapter->dev = &pdev->dev;
++#ifdef CONFIG_KS8842_TIMB_DMA
++      adapter->use_dma = 1;
++#endif
+       tasklet_init(&adapter->tasklet, ks8842_tasklet, (unsigned long)netdev);
+       spin_lock_init(&adapter->lock);
+@@ -660,6 +1066,8 @@
+       netdev->ethtool_ops = &ks8842_ethtool_ops;
+       ks8842_read_mac_addr(adapter, netdev->dev_addr);
++      if (!is_valid_ether_addr(netdev->dev_addr))
++              random_ether_addr(netdev->dev_addr);
+       id = ks8842_read16(adapter, 32, REG_SW_ID_AND_ENABLE);
+diff -uNr linux-2.6.31/drivers/net/Makefile linux-2.6.31.new/drivers/net/Makefile
+--- linux-2.6.31/drivers/net/Makefile  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/net/Makefile      2009-10-23 11:17:22.000000000 -0700
+@@ -16,6 +16,7 @@
+ obj-$(CONFIG_CHELSIO_T3) += cxgb3/
+ obj-$(CONFIG_EHEA) += ehea/
+ obj-$(CONFIG_CAN) += can/
++obj-$(CONFIG_MOST) += most/
+ obj-$(CONFIG_BONDING) += bonding/
+ obj-$(CONFIG_ATL1) += atlx/
+ obj-$(CONFIG_ATL2) += atlx/
+diff -uNr linux-2.6.31/drivers/net/most/Kconfig linux-2.6.31.new/drivers/net/most/Kconfig
+--- linux-2.6.31/drivers/net/most/Kconfig      1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/net/most/Kconfig  2009-10-23 11:17:22.000000000 -0700
+@@ -0,0 +1,14 @@
++menu "MOST Device Drivers"
++      depends on MOST
++
++config MOST_TIMB_MLB
++      tristate "The timberdale MOST block"
++      depends on MOST
++      depends on MFD_TIMBERDALE_DMA
++      depends on GENERIC_GPIO
++      depends on HAS_IOMEM
++      default N
++      ---help---
++        Adds support for MOST on the timberdale FPGA.
++
++endmenu
+diff -uNr linux-2.6.31/drivers/net/most/Makefile linux-2.6.31.new/drivers/net/most/Makefile
+--- linux-2.6.31/drivers/net/most/Makefile     1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/net/most/Makefile 2009-10-23 11:17:22.000000000 -0700
+@@ -0,0 +1,6 @@
++#
++#  Makefile for the Linux Media Oriented Systems Transport drivers.
++#
++
++obj-$(CONFIG_MOST_TIMB_MLB)   += timbmlb.o
++
+diff -uNr linux-2.6.31/drivers/net/most/timbmlb.c linux-2.6.31.new/drivers/net/most/timbmlb.c
+--- linux-2.6.31/drivers/net/most/timbmlb.c    1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/net/most/timbmlb.c        2009-10-23 11:17:22.000000000 -0700
+@@ -0,0 +1,1087 @@
++/*
++ * timbmlb.c Driver for the timberdale MLB block
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++#include <linux/module.h>
++#include <linux/interrupt.h>
++#include <linux/platform_device.h>
++#include <linux/mfd/timbdma.h>
++#include <linux/spinlock.h>
++#include <net/most/most_core.h>
++#include <linux/gpio.h>
++#include <linux/most/timbmlb.h>
++
++#define DRIVER_NAME   "timb-most"
++
++#define MLB_REG_CFG           0x00
++#define MLB_REG_CH_CTRL               0x04
++#define MLB_REG_ISR           0x08
++#define MLB_REG_IMR           0x0C
++#define MLB_REG_CH_CFG_1      0x10
++#define MLB_REG_CH_CFG_2      0x14
++#define MLB_REG_CH_CFG_3      0x18
++#define MLB_REG_CH_CFG_4      0x1C
++#define MLB_REG_CH_CFG_5      0x20
++#define MLB_REG_CH_CFG_6      0x24
++#define MLB_REG_CH_CFG_7      0x28
++#define MLB_REG_CTRL_RX               0x2C /* 8 bits */
++#define MLB_REG_CTRL_TX               MLB_REG_CTRL_RX
++#define MLB_REG_ASYNC_RX      0x30 /* 32 bits */
++#define MLB_REG_ASYNC_TX      MLB_REG_ASYNC_RX
++#define MLB_REG_SYNC_RX               0x34 /* 32 bits */
++#define MLB_REG_SYNC_TX               MLB_REG_SYNC_RX
++#define MLB_REG_FIFO_RST      0x38
++
++#define MLB_WR_CFG_CTRL_RX_EMPTY      0x20000
++#define MLB_WR_CFG_ASYNC_RX_EMPTY     0x10000
++#define MLB_CFG_SYNC_TX_EN            0x00200
++#define MLB_CFG_SYNC_RX_EN            0x00100
++#define MLB_CFG_ASYNC_RX_EN           0x00080
++#define MLB_CFG_CTRL_RX_EN            0x00040
++
++#define MLB_CH_CTRL_ASYNC_TX_START    0x8000
++#define MLB_CH_CTRL_ASYNC_RX_BREAK    0x4000
++#define MLB_CH_CTRL_CTRL_TX_START     0x0800
++#define MLB_CH_CTRL_CTRL_RX_BREAK     0x0400
++
++#define MLB_WR_I_SYNC_RX_EMPTY                0x80000
++#define MLB_WR_I_SYNC_RX_ALMOST_FULL  0x40000
++#define MLB_WR_I_SYNC_TX_FULL         0x20000
++#define MLB_WR_I_SYNC_TX_ALMOST_EMPTY 0x10000
++#define MLB_I_ASYNC_TX_READY          0x08000
++#define MLB_I_ASYNC_TX_PROT_ERR               0x04000
++#define MLB_I_ASYNC_TX_RX_BREAK               0x02000
++#define MLB_I_ASYNC_TX_BUSY_BREAK     0x01000
++#define MLB_I_ASYNC_RX_READY          0x00800
++#define MLB_I_ASYNC_RX_PROT_ERR               0x00400
++#define MLB_I_ASYNC_RX_CMD_BREAK      0x00200
++#define MLB_I_SYNC_LOCK                       0x00100
++#define MLB_I_CTRL_TX_READY           0x00080
++#define MLB_I_CTRL_TX_PROT_ERR                0x00040
++#define MLB_I_CTRL_TX_RX_BREAK                0x00020
++#define MLB_I_CTRL_TX_BUSY_BREAK      0x00010
++#define MLB_I_CTRL_RX_READY           0x00008
++#define MLB_I_CTRL_RX_PROT_ERR                0x00004
++#define MLB_I_CTRL_RX_CMD_BREAK               0x00002
++#define MLB_I_SYNC_RX_PROT_ERR                0x00001
++
++#define MLB_CH_CFG_NOT_ALLOCATED      0x0000
++#define MLB_CH_CFG_SYNC_TX            0x0001
++#define MLB_CH_CFG_SYNC_RX            0x0002
++#define MLB_CH_CFG_ASYNC_TX           0x0003
++#define MLB_CH_CFG_ASYNC_RX           0x0004
++#define MLB_CH_CFG_CTRL_TX            0x0005
++#define MLB_CH_CFG_CTRL_RX            0x0006
++
++#define MLB_FIFO_RST_CTRL_TX          0x010000
++#define MLB_FIFO_RST_CTRL_RX          0x020000
++#define MLB_FIFO_RST_ASYNC_TX         0x040000
++#define MLB_FIFO_RST_ASYNC_RX         0x080000
++#define MLB_FIFO_RST_SYNC_TX          0x100000
++#define MLB_FIFO_RST_SYNC_RX          0x200000
++#define MLB_FIFO_RST_MLB              0x400000
++#define MLB_FIFO_RST_ALL              (MLB_FIFO_RST_CTRL_TX   | \
++                                      MLB_FIFO_RST_CTRL_RX    | \
++                                      MLB_FIFO_RST_ASYNC_TX   | \
++                                      MLB_FIFO_RST_ASYNC_RX   | \
++                                      MLB_FIFO_RST_SYNC_TX    | \
++                                      MLB_FIFO_RST_SYNC_RX    | \
++                                      MLB_FIFO_RST_MLB)
++
++#define ASYNC_SKB_SIZE                1024
++#define SYNC_SKB_SIZE         32
++
++#define SYNC_MAX_DMA_SIZE     4096
++
++#define RX_CHAN 0
++#define TX_CHAN 1
++#define CHANNELS 2
++
++#define DMA_DEV(s) ((s->mdev->parent->parent) ? \
++      s->mdev->parent->parent : s->mdev->parent)
++
++struct timbmost {
++      void __iomem            *membase;
++      struct most_dev         *mdev;
++      int                     irq;
++      int                     reset_pin;
++      spinlock_t              lock; /* mutual exclusion */
++
++      /* one queue per channel (type) */
++      struct sk_buff_head     ctl_q;
++      struct sk_buff_head     async_q;
++      struct sk_buff_head     sync_q;
++
++      /* The SKB currently written/read into by the DMA engine
++       * only used for the synchronous channel
++       */
++      struct sk_buff  *sync_read_skb;
++      dma_addr_t      sync_read_handle;
++      void            *sync_read_desc;
++      struct sk_buff  *sync_write_skb;
++      void            *sync_write_desc;
++      int             sync_write_next_map;
++
++      /* channel numbers */
++      u8 ctl_channels[CHANNELS];
++      u8 sync_channels[CHANNELS];
++      u8 async_channels[CHANNELS];
++};
++
++static void timbmost_ctl_write_wake(struct timbmost *self);
++static void timbmost_async_write_wake(struct timbmost *self);
++
++static void __timbmost_dump_regs(struct timbmost *self, const char *caption)
++{
++      dev_dbg(self->mdev->parent, "%s\nMLB_CFG:\t%x\tCH_CTRL:\t%x\n",
++              caption,
++              ioread32(self->membase + MLB_REG_CFG),
++              ioread32(self->membase + MLB_REG_CH_CTRL));
++
++      dev_dbg(self->mdev->parent, "ISTAT:\t%x\tIMASK:\t%x\n",
++              ioread32(self->membase + MLB_REG_ISR),
++              ioread32(self->membase + MLB_REG_IMR));
++
++      dev_dbg(self->mdev->parent, "CH_CFG1:\t%x\tCH_CFG2:\t%x\n",
++              ioread32(self->membase + MLB_REG_CH_CFG_1),
++              ioread32(self->membase + MLB_REG_CH_CFG_2));
++
++      dev_dbg(self->mdev->parent, "CH_CFG3:\t%x\tCH_CFG4:\t%x\n",
++              ioread32(self->membase + MLB_REG_CH_CFG_3),
++              ioread32(self->membase + MLB_REG_CH_CFG_4));
++
++      dev_dbg(self->mdev->parent, "CH_CFG5:\t%x\tCH_CFG6:\t%x\n",
++              ioread32(self->membase + MLB_REG_CH_CFG_5),
++              ioread32(self->membase + MLB_REG_CH_CFG_6));
++
++      dev_dbg(self->mdev->parent, "CH_CFG7:\t%x\n",
++              ioread32(self->membase + MLB_REG_CH_CFG_7));
++}
++
++static void __timbmost_hw_reset(struct timbmost *self)
++{
++      /* disable all interrupts */
++      iowrite32(0, self->membase + MLB_REG_IMR);
++      iowrite32(0, self->membase + MLB_REG_ISR);
++
++      /* disable RX and TX */
++      iowrite32(0, self->membase + MLB_REG_CFG);
++      iowrite32(0, self->membase + MLB_REG_CH_CTRL);
++
++      /* make sure the channels are not allocated */
++      iowrite32(MLB_CH_CFG_NOT_ALLOCATED, self->membase + MLB_REG_CH_CFG_1);
++      iowrite32(MLB_CH_CFG_NOT_ALLOCATED, self->membase + MLB_REG_CH_CFG_2);
++      iowrite32(MLB_CH_CFG_NOT_ALLOCATED, self->membase + MLB_REG_CH_CFG_3);
++      iowrite32(MLB_CH_CFG_NOT_ALLOCATED, self->membase + MLB_REG_CH_CFG_4);
++      iowrite32(MLB_CH_CFG_NOT_ALLOCATED, self->membase + MLB_REG_CH_CFG_5);
++      iowrite32(MLB_CH_CFG_NOT_ALLOCATED, self->membase + MLB_REG_CH_CFG_6);
++
++      /* reset */
++      iowrite32(MLB_FIFO_RST_ALL, self->membase + MLB_REG_FIFO_RST);
++
++      /* reset the INIC */
++      gpio_direction_output(self->reset_pin, 0);
++      msleep(10);
++      gpio_set_value(self->reset_pin, 1);
++}
++
++static void __timbmost_ctl_rx(struct timbmost *self)
++{
++      u32 cfg;
++      do {
++              struct sk_buff *skb =
++                      most_skb_alloc(CTL_FRAME_SIZE, GFP_ATOMIC);
++              if (!skb)
++                      return;
++
++              do {
++                      u32 word = ioread32(self->membase + MLB_REG_CTRL_RX);
++                      int i;
++
++                      for (i = 0; i < 4; i++)
++                              *skb_put(skb, 1) = (word >> (i * 8)) & 0xff;
++
++                      cfg = ioread32(self->membase + MLB_REG_CFG);
++              } while ((skb->len < CTL_FRAME_SIZE) &&
++                      !(cfg & MLB_WR_CFG_CTRL_RX_EMPTY));
++
++              /* deliver SKB upstreams */
++              skb->dev = (void *)self->mdev;
++              most_cb(skb)->channel_type = CHAN_CTL;
++              /* only one channel is supported... */
++              most_cb(skb)->channel = self->ctl_channels[RX_CHAN];
++
++              most_recv_frame(skb);
++      } while (!(cfg & MLB_WR_CFG_CTRL_RX_EMPTY));
++}
++
++static void __timbmost_async_rx(struct timbmost *self)
++{
++      /* TODO: The FIFO is 32bit not 8bit */
++      u32 cfg;
++
++      __timbmost_dump_regs(self, "Before read");
++
++      do {
++              struct sk_buff *skb =
++                      most_skb_alloc(ASYNC_SKB_SIZE, GFP_ATOMIC);
++              if (!skb)
++                      return;
++
++              do {
++                      *skb_put(skb, 1) =
++                              ioread32(self->membase + MLB_REG_ASYNC_RX);
++                      cfg = ioread32(self->membase + MLB_REG_CFG);
++              } while ((skb->len < ASYNC_SKB_SIZE) &&
++                      !(cfg & MLB_WR_CFG_ASYNC_RX_EMPTY));
++
++              /* deliver SKB upstreams */
++              skb->dev = (void *)self->mdev;
++              most_cb(skb)->channel_type = CHAN_ASYNC;
++              /* only one channel is supported... */
++              most_cb(skb)->channel = self->async_channels[RX_CHAN];
++
++              most_recv_frame(skb);
++      } while (!(cfg & MLB_WR_CFG_ASYNC_RX_EMPTY));
++}
++
++static void __timbmost_sync_read_wake(struct timbmost *self)
++{
++      struct sk_buff *skb = self->sync_read_skb;
++      dma_addr_t map;
++      int err;
++
++      if (skb)
++              return;
++
++      skb = most_skb_alloc(SYNC_SKB_SIZE, GFP_ATOMIC);
++      if (!skb)
++              return;
++
++      map = dma_map_single(DMA_DEV(self), skb->data, SYNC_SKB_SIZE,
++              DMA_FROM_DEVICE);
++      if (dma_mapping_error(DMA_DEV(self), map))
++              goto map_failed;
++
++      err = timbdma_prep_desc(self->sync_read_desc, map, SYNC_SKB_SIZE);
++      if (err)
++              goto prep_failed;
++
++      dev_dbg(self->mdev->parent, "%s: will start RX: to: %x, size: %d\n",
++              __func__, (u32)map, SYNC_SKB_SIZE);
++
++      err = timbdma_start(DMA_IRQ_MLB_RX, self->sync_read_desc, 0);
++      if (err)
++              goto start_failed;
++
++      self->sync_read_skb = skb;
++      self->sync_read_handle = map;
++      return;
++start_failed:
++prep_failed:
++      dma_unmap_single(DMA_DEV(self), map, SYNC_SKB_SIZE, DMA_FROM_DEVICE);
++map_failed:
++      dev_kfree_skb(skb);
++}
++
++static void __timbmost_sync_rx_done(struct timbmost *self)
++{
++      struct sk_buff *skb = self->sync_read_skb;
++      int len;
++
++      BUG_ON(!skb);
++
++      /* unmap DMA */
++      dma_unmap_single(DMA_DEV(self), self->sync_read_handle, SYNC_SKB_SIZE,
++              DMA_FROM_DEVICE);
++
++      /* set the length */
++      len = timbdma_stop(DMA_IRQ_MLB_RX);
++      skb_put(skb, len);
++      /* send the SKB upwards */
++      skb->dev = (void *)self->mdev;
++      most_cb(skb)->channel_type = CHAN_SYNC;
++      /* only one channel is supported... */
++      most_cb(skb)->channel = self->sync_channels[RX_CHAN];
++      most_recv_frame(skb);
++      self->sync_read_skb = NULL;
++
++      __timbmost_sync_read_wake(self);
++}
++
++static void __timbmost_sync_write_wake(struct timbmost *self)
++{
++      unsigned long flags;
++      int len;
++      dma_addr_t map;
++      struct sk_buff *skb = self->sync_write_skb;
++      u32 isr;
++
++      dev_dbg(self->mdev->parent, "%s entry\n", __func__);
++
++      if (!skb) {
++              /* check for next SKB */
++              skb = skb_dequeue(&self->sync_q);
++              if (!skb)
++                      return;
++
++              if (skb_dma_map(DMA_DEV(self), skb, DMA_TO_DEVICE)) {
++                      /* failed to dma map? */
++                      dev_kfree_skb(skb);
++                      return;
++              }
++              /* next dma map to write is the first ... */
++              self->sync_write_next_map = -1;
++              self->sync_write_skb = skb;
++              dev_dbg(self->mdev->parent, "%s: New skb: fragments: %d\n",
++                      __func__, skb_shinfo(skb)->nr_frags);
++      }
++
++      /* check if there is space in the FIFO */
++      spin_lock_irqsave(&self->lock, flags);
++      isr = ioread32(self->membase + MLB_REG_ISR);
++      if (isr & MLB_WR_I_SYNC_TX_FULL) {
++              /* FIFO full enable, almost empty interrupt */
++              u32 imr = ioread32(self->membase + MLB_REG_IMR);
++              imr |= MLB_WR_I_SYNC_TX_ALMOST_EMPTY;
++              iowrite32(imr, self->membase + MLB_REG_IMR);
++      }
++      spin_unlock_irqrestore(&self->lock, flags);
++
++      /* exit if the FIFO is full, we will continue when the almost empty
++       * interrupt occurs
++       */
++      if (isr & MLB_WR_I_SYNC_TX_FULL)
++              return;
++
++      /* send next fragment */
++      if (self->sync_write_next_map < 0) {
++              len = skb_headlen(skb);
++              map = skb_shinfo(skb)->dma_head;
++      } else {
++              len = skb_shinfo(skb)->frags[self->sync_write_next_map].size;
++              map = skb_shinfo(skb)->dma_maps[self->sync_write_next_map];
++      }
++      self->sync_write_next_map++;
++      dev_dbg(self->mdev->parent, "%s: Will send %x, len: %d\n",
++              __func__, (uint32_t)map, len);
++      timbdma_prep_desc(self->sync_write_desc, map, len);
++      timbdma_start(DMA_IRQ_MLB_TX, self->sync_write_desc, 0);
++}
++
++static void __timbmost_sync_tx_done(struct timbmost *self)
++{
++      struct sk_buff *skb = self->sync_write_skb;
++
++      /* TX done, free current SKB, and check for next */
++      BUG_ON(!skb);
++
++      /* check if this was the last DMA map */
++      if (self->sync_write_next_map >= skb_shinfo(skb)->nr_frags) {
++
++              /* it was the last... */
++              skb_dma_unmap(DMA_DEV(self), skb, DMA_TO_DEVICE);
++              dev_kfree_skb(skb);
++              self->sync_write_skb = NULL;
++      }
++
++      __timbmost_sync_write_wake(self);
++}
++
++static void timbmost_sync_start_write(struct timbmost *self)
++{
++      unsigned long flags;
++      struct sk_buff *skb;
++
++      spin_lock_irqsave(&self->lock, flags);
++      skb = self->sync_write_skb;
++      spin_unlock_irqrestore(&self->lock, flags);
++
++      /* transfer is ongoing */
++      if (skb)
++              return;
++
++      __timbmost_sync_write_wake(self);
++}
++
++/* function called in interrupt context by the timberdale DMA engine
++ * when a transfer is finished
++ */
++static int timbmost_dma_irq(u32 flag, void *devid)
++{
++      struct timbmost *self = (struct timbmost *)devid;
++
++      if (flag & DMA_IRQ_MLB_RX)
++              __timbmost_sync_rx_done(self);
++
++      if (flag & DMA_IRQ_MLB_TX)
++              __timbmost_sync_tx_done(self);
++
++      return 0;
++}
++
++static irqreturn_t timbmost_irq(int irq, void *devid)
++{
++      struct timbmost *self = (struct timbmost *)devid;
++      u32 isr, imr;
++
++      isr = ioread32(self->membase + MLB_REG_ISR);
++      imr = ioread32(self->membase + MLB_REG_IMR);
++
++      dev_dbg(self->mdev->parent, "%s: entry, isr: %x, imr: %x\n", __func__,
++              isr, imr);
++
++      /* mask out only enabled interrupts */
++      isr &= imr;
++
++      /* ack */
++      iowrite32(isr, self->membase + MLB_REG_ISR);
++
++      if (isr & MLB_WR_I_SYNC_TX_ALMOST_EMPTY) {
++              /* disable the interrupt */
++              imr &= ~MLB_WR_I_SYNC_TX_ALMOST_EMPTY;
++              iowrite32(imr, self->membase + MLB_REG_IMR);
++              __timbmost_sync_write_wake(self);
++      }
++
++      if (isr & MLB_I_ASYNC_TX_READY) {
++              /* disable TX interrupts */
++              imr &= ~(MLB_I_ASYNC_TX_READY | MLB_I_ASYNC_TX_PROT_ERR);
++              iowrite32(imr, self->membase + MLB_REG_IMR);
++              /* schedule to send next package */
++              timbmost_async_write_wake(self);
++      }
++
++      if (isr & MLB_I_ASYNC_RX_READY)
++              /* pass data upstreams */
++              __timbmost_async_rx(self);
++
++      if (isr & MLB_I_CTRL_TX_READY) {
++              /* disable TX interrupts */
++              imr &= ~(MLB_I_CTRL_TX_READY | MLB_I_CTRL_TX_PROT_ERR);
++              iowrite32(imr, self->membase + MLB_REG_IMR);
++              /* schedule to send next package */
++              timbmost_ctl_write_wake(self);
++      }
++
++      if (isr & MLB_I_CTRL_RX_READY)
++              /* pass data upstreams */
++              __timbmost_ctl_rx(self);
++
++      if (isr)
++              return IRQ_HANDLED;
++      else
++              return IRQ_NONE;
++}
++
++static int timbmost_open(struct most_dev *mdev)
++{
++      struct timbmost *self = (struct timbmost *)mdev->driver_data;
++      int err;
++
++      dev_dbg(mdev->parent, "%s\n", __func__);
++
++      skb_queue_head_init(&self->ctl_q);
++      skb_queue_head_init(&self->sync_q);
++      skb_queue_head_init(&self->async_q);
++
++      spin_lock_init(&self->lock);
++
++      /* request the GPIO reset pin */
++      err = gpio_request(self->reset_pin, DRIVER_NAME);
++      if (err) {
++              printk(KERN_ERR DRIVER_NAME
++              " Failed to request reset pin: %d, err: %d\n",
++              self->reset_pin, err);
++              return err;
++      }
++
++      __timbmost_hw_reset(self);
++
++      /* set DMA callback */
++      timbdma_set_interruptcb(DMA_IRQ_MLB_RX | DMA_IRQ_MLB_TX,
++              timbmost_dma_irq, (void *)self);
++
++      self->sync_read_desc = timbdma_alloc_desc(SYNC_MAX_DMA_SIZE, 1);
++      if (!self->sync_read_desc) {
++              err = -ENOMEM;
++              goto err_alloc_r_desc;
++      }
++
++      self->sync_write_desc = timbdma_alloc_desc(SYNC_MAX_DMA_SIZE, 1);
++      if (!self->sync_write_desc) {
++              err = -ENOMEM;
++              goto err_alloc_w_desc;
++      }
++
++      /* request IRQ */
++      err = request_irq(self->irq, timbmost_irq, IRQF_SHARED, "timb-most",
++              self);
++      if (err)
++              goto err_req_irq;
++
++      return 0;
++
++err_req_irq:
++      timbdma_free_desc(self->sync_write_desc);
++err_alloc_w_desc:
++      timbdma_free_desc(self->sync_read_desc);
++err_alloc_r_desc:
++      gpio_free(self->reset_pin);
++      return err;
++}
++
++static void timbmost_stop_sync_dma(struct timbmost *self)
++{
++      if (self->sync_read_skb) {
++              timbdma_stop(DMA_IRQ_MLB_RX);
++              dma_unmap_single(DMA_DEV(self), self->sync_read_handle,
++                      SYNC_SKB_SIZE, DMA_FROM_DEVICE);
++              kfree_skb(self->sync_read_skb);
++              self->sync_read_skb = NULL;
++      }
++
++      if (self->sync_write_skb) {
++              timbdma_stop(DMA_IRQ_MLB_TX);
++              skb_dma_unmap(DMA_DEV(self), self->sync_write_skb,
++                      DMA_TO_DEVICE);
++              kfree_skb(self->sync_write_skb);
++              self->sync_write_skb = NULL;
++      }
++}
++
++static int timbmost_close(struct most_dev *mdev)
++{
++      struct timbmost *self = (struct timbmost *)mdev->driver_data;
++
++      dev_dbg(mdev->parent, "%s\n", __func__);
++
++      /* free IRQ */
++      free_irq(self->irq, self);
++
++      __timbmost_hw_reset(self);
++
++      /* free GPIO */
++      gpio_free(self->reset_pin);
++
++      /* empty all queues */
++      skb_queue_purge(&self->ctl_q);
++      skb_queue_purge(&self->sync_q);
++      skb_queue_purge(&self->async_q);
++
++      /* clear DMA callback */
++      timbdma_set_interruptcb(DMA_IRQ_MLB_RX | DMA_IRQ_MLB_TX, NULL, NULL);
++
++      return 0;
++}
++
++static int __timbmost_conf_channel(struct timbmost *self, u8 channel,
++      u8 channel_mask)
++{
++      int register_offset;
++      int shift;
++      u32 ch_cfg;
++
++      /* only even channel numbers are allowed */
++      if (channel % 2 || channel > 0x3e || channel == 0) {
++              printk(KERN_WARNING DRIVER_NAME": Invalid channel: %d\n",
++                      channel);
++              return -EINVAL;
++      }
++
++      channel = (channel / 2) - 1;
++      /* the channel conf is spread out over the 7 channel config registers
++       * each register configures 5 channels, each reg is 32bit
++       */
++      register_offset = MLB_REG_CH_CFG_1 + (channel / 5) * 4;
++
++      /* each register configures 5 channels, 3 bit per channel
++       * lowest bits configures highest channel
++       */
++      shift = (4 - (channel % 5)) * 3;
++
++      ch_cfg = ioread32(self->membase + register_offset);
++      ch_cfg &= ~(0x7 << shift);
++      ch_cfg |= (channel_mask & 0x7) << shift;
++      iowrite32(ch_cfg, self->membase + register_offset);
++      return 0;
++}
++
++static int timbmost_conf_channel(struct most_dev *mdev,
++      enum most_chan_type type, u8 channel, u8 flags)
++{
++      struct timbmost *self = (struct timbmost *)mdev->driver_data;
++      unsigned long irq_flags;
++      u32 imr, cfg;
++      int err = -EINVAL;
++      int chan_idx = (flags & MOST_CONF_FLAG_TX) ? TX_CHAN : RX_CHAN;
++
++      dev_dbg(mdev->parent, "%s: channel: %d, flags: %x\n",
++              __func__, channel, flags);
++
++      if (flags & MOST_CONF_FLAG_UP) {
++              switch (type) {
++              case CHAN_CTL:
++                      spin_lock_irqsave(&self->lock, irq_flags);
++                      /* we only support one channel at the time */
++                      if (self->ctl_channels[chan_idx])
++                              goto error;
++
++                      /* reset the FIFO */
++                      iowrite32((chan_idx == TX_CHAN) ? MLB_FIFO_RST_CTRL_TX :
++                              MLB_FIFO_RST_CTRL_RX,
++                              self->membase + MLB_REG_FIFO_RST);
++
++                      err = __timbmost_conf_channel(self, channel,
++                              (chan_idx == TX_CHAN) ? MLB_CH_CFG_CTRL_TX :
++                              MLB_CH_CFG_CTRL_RX);
++                      if (err)
++                              goto error;
++
++                      if (chan_idx == RX_CHAN) {
++                              /* enable the receiver */
++                              cfg = ioread32(self->membase + MLB_REG_CFG);
++                              cfg |= MLB_CFG_CTRL_RX_EN;
++                              iowrite32(cfg, self->membase + MLB_REG_CFG);
++
++                              /* enable RX interrupts */
++                              imr = ioread32(self->membase + MLB_REG_IMR);
++                              imr |= (MLB_I_CTRL_RX_READY |
++                                      MLB_I_CTRL_RX_PROT_ERR |
++                                      MLB_I_CTRL_RX_CMD_BREAK);
++                              iowrite32(imr, self->membase + MLB_REG_IMR);
++                      }
++                      self->ctl_channels[chan_idx] = channel;
++                      spin_unlock_irqrestore(&self->lock, irq_flags);
++                      break;
++              case CHAN_SYNC:
++                      spin_lock_irqsave(&self->lock, irq_flags);
++                      /* we only support one channel at the time */
++                      if (self->sync_channels[chan_idx])
++                              goto error;
++
++                      /* reset the FIFO */
++                      iowrite32((chan_idx == TX_CHAN) ? MLB_FIFO_RST_SYNC_TX :
++                              MLB_FIFO_RST_SYNC_RX,
++                              self->membase + MLB_REG_FIFO_RST);
++
++                      err = __timbmost_conf_channel(self, channel,
++                              (chan_idx == TX_CHAN) ? MLB_CH_CFG_SYNC_TX :
++                              MLB_CH_CFG_SYNC_RX);
++                      if (err)
++                              goto error;
++
++                      if (chan_idx == RX_CHAN) {
++                              /* enable the receiver */
++                              cfg = ioread32(self->membase + MLB_REG_CFG);
++                              cfg |= MLB_CFG_SYNC_RX_EN;
++                              iowrite32(cfg, self->membase + MLB_REG_CFG);
++
++                              /* enable prot error interrupts */
++                              imr = ioread32(self->membase + MLB_REG_IMR);
++                              imr |= MLB_I_SYNC_RX_PROT_ERR;
++                              iowrite32(imr, self->membase + MLB_REG_IMR);
++                              /* start RX DMA */
++                              __timbmost_sync_read_wake(self);
++                      }
++                      self->sync_channels[chan_idx] = channel;
++                      spin_unlock_irqrestore(&self->lock, irq_flags);
++
++                      break;
++              case CHAN_ASYNC:
++                      spin_lock_irqsave(&self->lock, irq_flags);
++                      /* we only support one channel at the time */
++                      if (self->async_channels[chan_idx])
++                              goto error;
++                      /* reset the FIFO */
++                      iowrite32((chan_idx == TX_CHAN) ?
++                              MLB_FIFO_RST_ASYNC_TX : MLB_FIFO_RST_ASYNC_RX,
++                              self->membase + MLB_REG_FIFO_RST);
++
++                      err = __timbmost_conf_channel(self, channel,
++                              (chan_idx == TX_CHAN) ? MLB_CH_CFG_ASYNC_TX :
++                              MLB_CH_CFG_ASYNC_RX);
++                      if (err)
++                              goto error;
++
++                      if (chan_idx == RX_CHAN) {
++                              /* enable the receiver */
++                              cfg = ioread32(self->membase + MLB_REG_CFG);
++                              cfg |= MLB_CFG_ASYNC_RX_EN;
++                              iowrite32(cfg, self->membase + MLB_REG_CFG);
++
++                              /* enable RX interrupts */
++                              imr = ioread32(self->membase + MLB_REG_IMR);
++                              imr |= (MLB_I_ASYNC_RX_READY |
++                                      MLB_I_ASYNC_RX_PROT_ERR |
++                                      MLB_I_ASYNC_RX_CMD_BREAK);
++                              iowrite32(imr, self->membase + MLB_REG_IMR);
++                      }
++                      self->async_channels[chan_idx] = channel;
++                      spin_unlock_irqrestore(&self->lock, irq_flags);
++                      break;
++              default:
++                      printk(KERN_WARNING "timbmlb: Uknown channel type\n");
++                      return -EINVAL;
++              }
++      } else {
++              switch (type) {
++              case CHAN_CTL:
++                      /* stop any ongoing transfer */
++                      spin_lock_irqsave(&self->lock, irq_flags);
++                      if (self->ctl_channels[chan_idx] != channel)
++                              goto error;
++
++                      imr = ioread32(self->membase + MLB_REG_IMR);
++                      imr &= ~(MLB_I_CTRL_TX_READY |
++                              MLB_I_CTRL_TX_PROT_ERR |
++                              MLB_I_CTRL_TX_RX_BREAK |
++                              MLB_I_CTRL_TX_BUSY_BREAK |
++                              MLB_I_CTRL_RX_READY |
++                              MLB_I_CTRL_RX_PROT_ERR |
++                              MLB_I_CTRL_RX_CMD_BREAK);
++                      iowrite32(imr, self->membase + MLB_REG_IMR);
++
++                      /* disable CTL RX */
++                      cfg = ioread32(self->membase + MLB_REG_CFG);
++                      cfg &= ~MLB_CFG_CTRL_RX_EN;
++                      iowrite32(cfg, self->membase + MLB_REG_CFG);
++
++                      err = __timbmost_conf_channel(self, channel,
++                              MLB_CH_CFG_NOT_ALLOCATED);
++                      spin_unlock_irqrestore(&self->lock, irq_flags);
++                      skb_queue_purge(&self->ctl_q);
++                      self->ctl_channels[chan_idx] = 0;
++                      return err;
++              case CHAN_SYNC:
++
++                      /* stop any ongoing transfer */
++                      spin_lock_irqsave(&self->lock, irq_flags);
++                      if (self->sync_channels[chan_idx] != channel)
++                              goto error;
++
++                      /* stop DMA */
++                      timbmost_stop_sync_dma(self);
++                      imr = ioread32(self->membase + MLB_REG_IMR);
++                      imr &= ~MLB_I_SYNC_RX_PROT_ERR;
++                      iowrite32(imr, self->membase + MLB_REG_IMR);
++
++                      /* disable SYNC TX/RX */
++                      cfg = ioread32(self->membase + MLB_REG_CFG);
++                      cfg &= ~(MLB_CFG_SYNC_TX_EN |
++                              MLB_CFG_SYNC_RX_EN);
++                      iowrite32(cfg, self->membase + MLB_REG_CFG);
++
++                      err = __timbmost_conf_channel(self, channel,
++                              MLB_CH_CFG_NOT_ALLOCATED);
++                      spin_unlock_irqrestore(&self->lock, irq_flags);
++                      skb_queue_purge(&self->sync_q);
++                      self->sync_channels[chan_idx] = 0;
++                      return err;
++              case CHAN_ASYNC:
++                      /* stop any ongoing transfer */
++                      spin_lock_irqsave(&self->lock, irq_flags);
++                      if (self->async_channels[chan_idx] != channel)
++                              goto error;
++                      imr = ioread32(self->membase + MLB_REG_IMR);
++                      imr &= ~(MLB_I_ASYNC_TX_READY |
++                              MLB_I_ASYNC_TX_PROT_ERR |
++                              MLB_I_ASYNC_TX_RX_BREAK |
++                              MLB_I_ASYNC_TX_BUSY_BREAK |
++                              MLB_I_ASYNC_RX_READY |
++                              MLB_I_ASYNC_RX_PROT_ERR |
++                              MLB_I_ASYNC_RX_CMD_BREAK);
++                      iowrite32(imr, self->membase + MLB_REG_IMR);
++
++                      /* disable CTL RX */
++                      cfg = ioread32(self->membase + MLB_REG_CFG);
++                      cfg &= ~MLB_CFG_ASYNC_RX_EN;
++                      iowrite32(cfg, self->membase + MLB_REG_CFG);
++
++                      err = __timbmost_conf_channel(self, channel,
++                              MLB_CH_CFG_NOT_ALLOCATED);
++                      spin_unlock_irqrestore(&self->lock, irq_flags);
++                      skb_queue_purge(&self->async_q);
++                      self->async_channels[chan_idx] = 0;
++                      return err;
++              default:
++                      return -EINVAL;
++              }
++      }
++      return 0;
++
++error:
++      spin_unlock_irqrestore(&self->lock, irq_flags);
++      return err;
++}
++
++static void timbmost_ctl_write_wake(struct timbmost *self)
++{
++      unsigned long flags;
++      u32 imr;
++      u32 isr;
++      struct sk_buff *skb;
++      int i;
++
++      dev_dbg(self->mdev->parent, "%s entry\n", __func__);
++      __timbmost_dump_regs(self, "Before write");
++
++      spin_lock_irqsave(&self->lock, flags);
++      imr = ioread32(self->membase + MLB_REG_IMR);
++      isr = ioread32(self->membase + MLB_REG_ISR);
++      spin_unlock_irqrestore(&self->lock, flags);
++
++      /* check if the hardware is currently writing */
++      if (imr & MLB_I_CTRL_TX_READY)
++              return;
++
++      /* check if we have sync */
++      if (!(isr & MLB_I_SYNC_LOCK))
++              return;
++
++      skb = skb_dequeue(&self->ctl_q);
++      if (!skb)
++              return;
++
++      /* now write to the FIFO */
++      for (i = 0; i < skb->len;) {
++              u32 word = 0;
++              int j;
++
++              for (j = 0; j < 4 && i < skb->len; j++, i++)
++                      word |= ((u8 *)skb->data)[i] << j * 8;
++
++              iowrite32(word, self->membase + MLB_REG_CTRL_TX);
++      }
++
++      /* data is in the FIFO, enable proper interrupts */
++      spin_lock_irqsave(&self->lock, flags);
++      imr = ioread32(self->membase + MLB_REG_IMR) | MLB_I_CTRL_TX_READY |
++              MLB_I_CTRL_TX_PROT_ERR;
++      iowrite32(imr, self->membase + MLB_REG_IMR);
++      /* start TX */
++      iowrite32(MLB_CH_CTRL_CTRL_TX_START, self->membase + MLB_REG_CH_CTRL);
++      spin_unlock_irqrestore(&self->lock, flags);
++
++      kfree_skb(skb);
++}
++
++static void timbmost_async_write_wake(struct timbmost *self)
++{
++      unsigned long flags;
++      u32 imr;
++      u32 isr;
++      struct sk_buff *skb;
++      int i;
++
++      spin_lock_irqsave(&self->lock, flags);
++      imr = ioread32(self->membase + MLB_REG_IMR);
++      isr = ioread32(self->membase + MLB_REG_ISR);
++      spin_unlock_irqrestore(&self->lock, flags);
++
++      /* check if the hardware is currently writing */
++      if (imr & MLB_I_ASYNC_TX_READY)
++              return;
++
++      /* check if we have sync */
++      if (!(isr & MLB_I_SYNC_LOCK))
++              return;
++
++      skb = skb_dequeue(&self->async_q);
++      if (!skb)
++              return;
++
++      /* TODO: The FIFO is 32bit not 8bit */
++      /* now write to the FIFO */
++      for (i = 0; i < skb->len; i++)
++              iowrite32(skb->data[i], self->membase + MLB_REG_ASYNC_TX);
++
++      /* data is in the FIFO, enable proper interrupts */
++      spin_lock_irqsave(&self->lock, flags);
++      imr = ioread32(self->membase + MLB_REG_IMR) | MLB_I_ASYNC_TX_READY |
++              MLB_I_ASYNC_TX_PROT_ERR;
++      iowrite32(imr, self->membase + MLB_REG_IMR);
++      /* start TX */
++      iowrite32(MLB_CH_CTRL_ASYNC_TX_START, self->membase + MLB_REG_CH_CTRL);
++      spin_unlock_irqrestore(&self->lock, flags);
++
++      kfree_skb(skb);
++}
++
++static int timbmost_send(struct sk_buff *skb)
++{
++      struct most_dev *mdev = (struct most_dev *)skb->dev;
++      struct timbmost *self = (struct timbmost *)mdev->driver_data;
++
++      dev_dbg(mdev->parent, "%s, type: %d\n",
++              __func__, most_cb(skb)->channel_type);
++
++      switch (most_cb(skb)->channel_type) {
++      case CHAN_CTL:
++              skb_queue_tail(&self->ctl_q, skb);
++              timbmost_ctl_write_wake(self);
++              break;
++      case CHAN_ASYNC:
++              skb_queue_tail(&self->async_q, skb);
++              timbmost_async_write_wake(self);
++              break;
++      case CHAN_SYNC:
++              skb_queue_tail(&self->sync_q, skb);
++              timbmost_sync_start_write(self);
++              break;
++      default:
++              printk(KERN_WARNING "%s: Got unsupported channel type: %d\n",
++                      __func__, most_cb(skb)->channel_type);
++              kfree_skb(skb);
++              break;
++      }
++
++      return 0;
++}
++
++static int timbmost_probe(struct platform_device *dev)
++{
++      int err;
++      struct timbmost *self = NULL;
++      struct resource *iomem;
++      struct timbmlb_platform_data *pdata = dev->dev.platform_data;
++
++      if (!pdata) {
++              printk(KERN_ERR DRIVER_NAME "No platform data supplied\n");
++              err = -EINVAL;
++              goto err_mem;
++      }
++
++      iomem = platform_get_resource(dev, IORESOURCE_MEM, 0);
++      if (!iomem) {
++              err = -EINVAL;
++              goto err_mem;
++      }
++
++      self = kzalloc(sizeof(*self), GFP_KERNEL);
++      if (!self) {
++              err = -ENOMEM;
++              goto err_mem;
++      }
++
++      self->mdev = most_alloc_dev();
++      if (!self->mdev) {
++              err = -ENOMEM;
++              goto err_mem;
++      }
++
++      self->mdev->owner = THIS_MODULE;
++      self->mdev->driver_data = self;
++      self->mdev->parent = &dev->dev;
++      self->mdev->open = timbmost_open;
++      self->mdev->close = timbmost_close;
++      self->mdev->send = timbmost_send;
++      self->mdev->conf_channel = timbmost_conf_channel;
++
++      if (!request_mem_region(iomem->start,
++              resource_size(iomem), "timb-most")) {
++              err = -EBUSY;
++              goto err_mem;
++      }
++
++      self->membase = ioremap(iomem->start, resource_size(iomem));
++      if (!self->membase) {
++              printk(KERN_ERR "timbmost: Failed to remap I/O memory\n");
++              err = -ENOMEM;
++              goto err_ioremap;
++      }
++
++      self->reset_pin = pdata->reset_pin;
++
++      /* find interrupt */
++      self->irq = platform_get_irq(dev, 0);
++      if (self->irq < 0) {
++              err = self->irq;
++              goto err_get_irq;
++      }
++
++      /* register to the MOST layer */
++      err = most_register_dev(self->mdev);
++      if (err)
++              goto err_register;
++
++
++      platform_set_drvdata(dev, self);
++
++      return 0;
++
++err_get_irq:
++err_register:
++      iounmap(self->membase);
++err_ioremap:
++      release_mem_region(iomem->start, resource_size(iomem));
++err_mem:
++      if (self) {
++              if (self->mdev)
++                      most_free_dev(self->mdev);
++
++              timbdma_free_desc(self->sync_read_desc);
++              timbdma_free_desc(self->sync_write_desc);
++
++              kfree(self);
++      }
++      printk(KERN_ERR "timb-most: Failed to register: %d\n", err);
++
++      return err;
++}
++
++static int timbmost_remove(struct platform_device *dev)
++{
++      struct timbmost *self = platform_get_drvdata(dev);
++      struct resource *iomem = platform_get_resource(dev, IORESOURCE_MEM, 0);
++
++      most_unregister_dev(self->mdev);
++      iounmap(self->membase);
++      release_mem_region(iomem->start, resource_size(iomem));
++      most_free_dev(self->mdev);
++      kfree(self);
++      return 0;
++}
++
++static struct platform_driver timbmost_platform_driver = {
++      .driver = {
++              .name   = DRIVER_NAME,
++              .owner  = THIS_MODULE,
++      },
++      .probe          = timbmost_probe,
++      .remove         = timbmost_remove,
++};
++
++/*--------------------------------------------------------------------------*/
++
++static int __init timbmost_init(void)
++{
++      return platform_driver_register(&timbmost_platform_driver);
++}
++
++static void __exit timbmost_exit(void)
++{
++      platform_driver_unregister(&timbmost_platform_driver);
++}
++
++module_init(timbmost_init);
++module_exit(timbmost_exit);
++
++MODULE_DESCRIPTION("Timberdale MLB driver");
++MODULE_AUTHOR("Mocean Laboratories <info@mocean-labs.com>");
++MODULE_LICENSE("GPL v2");
++MODULE_ALIAS("platform:timb-most");
++
+diff -uNr linux-2.6.31/drivers/serial/Kconfig linux-2.6.31.new/drivers/serial/Kconfig
+--- linux-2.6.31/drivers/serial/Kconfig        2009-10-23 11:18:08.000000000 -0700
++++ linux-2.6.31.new/drivers/serial/Kconfig    2009-10-23 11:17:29.000000000 -0700
+@@ -855,7 +855,7 @@
+ config SERIAL_UARTLITE
+       tristate "Xilinx uartlite serial port support"
+-      depends on PPC32 || MICROBLAZE
++      depends on PPC32 || MICROBLAZE || MFD_TIMBERDALE
+       select SERIAL_CORE
+       help
+         Say Y here if you want to use the Xilinx uartlite serial controller.
+diff -uNr linux-2.6.31/drivers/serial/timbuart.c linux-2.6.31.new/drivers/serial/timbuart.c
+--- linux-2.6.31/drivers/serial/timbuart.c     2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/serial/timbuart.c 2009-10-23 11:17:29.000000000 -0700
+@@ -31,6 +31,7 @@
+ struct timbuart_port {
+       struct uart_port        port;
++      struct uart_driver      uart_driver;
+       struct tasklet_struct   tasklet;
+       int                     usedma;
+       u32                     last_ier;
+@@ -410,7 +411,7 @@
+       .verify_port = timbuart_verify_port
+ };
+-static struct uart_driver timbuart_driver = {
++static const __devinitconst struct uart_driver timbuart_driver_template = {
+       .owner = THIS_MODULE,
+       .driver_name = "timberdale_uart",
+       .dev_name = "ttyTU",
+@@ -419,7 +420,7 @@
+       .nr = 1
+ };
+-static int timbuart_probe(struct platform_device *dev)
++static int __devinit timbuart_probe(struct platform_device *dev)
+ {
+       int err;
+       struct timbuart_port *uart;
+@@ -433,6 +434,8 @@
+               goto err_mem;
+       }
++      uart->uart_driver = timbuart_driver_template;
++
+       uart->usedma = 0;
+       uart->port.uartclk = 3250000 * 16;
+@@ -461,11 +464,11 @@
+       tasklet_init(&uart->tasklet, timbuart_tasklet, (unsigned long)uart);
+-      err = uart_register_driver(&timbuart_driver);
++      err = uart_register_driver(&uart->uart_driver);
+       if (err)
+               goto err_register;
+-      err = uart_add_one_port(&timbuart_driver, &uart->port);
++      err = uart_add_one_port(&uart->uart_driver, &uart->port);
+       if (err)
+               goto err_add_port;
+@@ -474,7 +477,7 @@
+       return 0;
+ err_add_port:
+-      uart_unregister_driver(&timbuart_driver);
++      uart_unregister_driver(&uart->uart_driver);
+ err_register:
+       kfree(uart);
+ err_mem:
+@@ -484,13 +487,13 @@
+       return err;
+ }
+-static int timbuart_remove(struct platform_device *dev)
++static int __devexit timbuart_remove(struct platform_device *dev)
+ {
+       struct timbuart_port *uart = platform_get_drvdata(dev);
+       tasklet_kill(&uart->tasklet);
+-      uart_remove_one_port(&timbuart_driver, &uart->port);
+-      uart_unregister_driver(&timbuart_driver);
++      uart_remove_one_port(&uart->uart_driver, &uart->port);
++      uart_unregister_driver(&uart->uart_driver);
+       kfree(uart);
+       return 0;
+diff -uNr linux-2.6.31/drivers/spi/Kconfig linux-2.6.31.new/drivers/spi/Kconfig
+--- linux-2.6.31/drivers/spi/Kconfig   2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/spi/Kconfig       2009-10-23 11:17:32.000000000 -0700
+@@ -218,8 +218,8 @@
+         SPI driver for Toshiba TXx9 MIPS SoCs
+ config SPI_XILINX
+-      tristate "Xilinx SPI controller"
+-      depends on (XILINX_VIRTEX || MICROBLAZE) && EXPERIMENTAL
++      tristate "Xilinx SPI controller common module"
++      depends on EXPERIMENTAL
+       select SPI_BITBANG
+       help
+         This exposes the SPI controller IP from the Xilinx EDK.
+@@ -227,6 +227,25 @@
+         See the "OPB Serial Peripheral Interface (SPI) (v1.00e)"
+         Product Specification document (DS464) for hardware details.
++config SPI_XILINX_OF
++      tristate "Xilinx SPI controller OF device"
++      depends on SPI_XILINX && XILINX_VIRTEX
++      help
++        This exposes the SPI controller IP from the Xilinx EDK.
++
++        See the "OPB Serial Peripheral Interface (SPI) (v1.00e)"
++        Product Specification document (DS464) for hardware details.
++
++config SPI_XILINX_PLTFM
++      tristate "Xilinx SPI controller platform device"
++      depends on SPI_XILINX
++      help
++        This exposes the SPI controller IP from the Xilinx EDK.
++
++        See the "OPB Serial Peripheral Interface (SPI) (v1.00e)"
++        Product Specification document (DS464) for hardware details.
++
++
+ #
+ # Add new SPI master controllers in alphabetical order above this line
+ #
+diff -uNr linux-2.6.31/drivers/spi/Makefile linux-2.6.31.new/drivers/spi/Makefile
+--- linux-2.6.31/drivers/spi/Makefile  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/spi/Makefile      2009-10-23 11:17:32.000000000 -0700
+@@ -30,6 +30,8 @@
+ obj-$(CONFIG_SPI_S3C24XX)             += spi_s3c24xx.o
+ obj-$(CONFIG_SPI_TXX9)                        += spi_txx9.o
+ obj-$(CONFIG_SPI_XILINX)              += xilinx_spi.o
++obj-$(CONFIG_SPI_XILINX_OF)           += xilinx_spi_of.o
++obj-$(CONFIG_SPI_XILINX_PLTFM)                += xilinx_spi_pltfm.o
+ obj-$(CONFIG_SPI_SH_SCI)              += spi_sh_sci.o
+ #     ... add above this line ...
+diff -uNr linux-2.6.31/drivers/spi/xilinx_spi.c linux-2.6.31.new/drivers/spi/xilinx_spi.c
+--- linux-2.6.31/drivers/spi/xilinx_spi.c      2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/drivers/spi/xilinx_spi.c  2009-10-23 11:17:32.000000000 -0700
+@@ -14,22 +14,35 @@
+ #include <linux/module.h>
+ #include <linux/init.h>
+ #include <linux/interrupt.h>
+-#include <linux/platform_device.h>
+-
+-#include <linux/of_platform.h>
+-#include <linux/of_device.h>
+-#include <linux/of_spi.h>
+ #include <linux/spi/spi.h>
+ #include <linux/spi/spi_bitbang.h>
+ #include <linux/io.h>
+-#define XILINX_SPI_NAME "xilinx_spi"
++#include "xilinx_spi.h"
++
++struct xilinx_spi {
++      /* bitbang has to be first */
++      struct spi_bitbang bitbang;
++      struct completion done;
++      struct resource mem; /* phys mem */
++      void __iomem    *regs;  /* virt. address of the control registers */
++      u32 irq;
++      u8 *rx_ptr;             /* pointer in the Tx buffer */
++      const u8 *tx_ptr;       /* pointer in the Rx buffer */
++      int remaining_bytes;    /* the number of bytes left to transfer */
++      /* offset to the XSPI regs, these might vary... */
++      u8 bits_per_word;
++      bool big_endian;        /* The device could be accessed big or little
++                               * endian
++                               */
++};
++
+ /* Register definitions as per "OPB Serial Peripheral Interface (SPI) (v1.00e)
+  * Product Specification", DS464
+  */
+-#define XSPI_CR_OFFSET                0x62    /* 16-bit Control Register */
++#define XSPI_CR_OFFSET                0x60    /* Control Register */
+ #define XSPI_CR_ENABLE                0x02
+ #define XSPI_CR_MASTER_MODE   0x04
+@@ -40,8 +53,9 @@
+ #define XSPI_CR_RXFIFO_RESET  0x40
+ #define XSPI_CR_MANUAL_SSELECT        0x80
+ #define XSPI_CR_TRANS_INHIBIT 0x100
++#define XSPI_CR_LSB_FIRST     0x200
+-#define XSPI_SR_OFFSET                0x67    /* 8-bit Status Register */
++#define XSPI_SR_OFFSET                0x64    /* Status Register */
+ #define XSPI_SR_RX_EMPTY_MASK 0x01    /* Receive FIFO is empty */
+ #define XSPI_SR_RX_FULL_MASK  0x02    /* Receive FIFO is full */
+@@ -49,8 +63,8 @@
+ #define XSPI_SR_TX_FULL_MASK  0x08    /* Transmit FIFO is full */
+ #define XSPI_SR_MODE_FAULT_MASK       0x10    /* Mode fault error */
+-#define XSPI_TXD_OFFSET               0x6b    /* 8-bit Data Transmit Register */
+-#define XSPI_RXD_OFFSET               0x6f    /* 8-bit Data Receive Register */
++#define XSPI_TXD_OFFSET               0x68    /* Data Transmit Register */
++#define XSPI_RXD_OFFSET               0x6C    /* Data Receive Register */
+ #define XSPI_SSR_OFFSET               0x70    /* 32-bit Slave Select Register */
+@@ -70,43 +84,72 @@
+ #define XSPI_INTR_TX_UNDERRUN         0x08    /* TxFIFO was underrun */
+ #define XSPI_INTR_RX_FULL             0x10    /* RxFIFO is full */
+ #define XSPI_INTR_RX_OVERRUN          0x20    /* RxFIFO was overrun */
++#define XSPI_INTR_TX_HALF_EMPTY               0x40    /* TxFIFO is half empty */
+ #define XIPIF_V123B_RESETR_OFFSET     0x40    /* IPIF reset register */
+ #define XIPIF_V123B_RESET_MASK                0x0a    /* the value to write */
+-struct xilinx_spi {
+-      /* bitbang has to be first */
+-      struct spi_bitbang bitbang;
+-      struct completion done;
++/* to follow are some functions that does little of big endian read and
++ * write depending on the config of the device.
++ */
++static inline void xspi_write8(struct xilinx_spi *xspi, u32 offs, u8 val)
++{
++      iowrite8(val, xspi->regs + offs + ((xspi->big_endian) ? 3 : 0));
++}
+-      void __iomem    *regs;  /* virt. address of the control registers */
++static inline void xspi_write16(struct xilinx_spi *xspi, u32 offs, u16 val)
++{
++      if (xspi->big_endian)
++              iowrite16be(val, xspi->regs + offs + 2);
++      else
++              iowrite16(val, xspi->regs + offs);
++}
+-      u32             irq;
++static inline void xspi_write32(struct xilinx_spi *xspi, u32 offs, u32 val)
++{
++      if (xspi->big_endian)
++              iowrite32be(val, xspi->regs + offs);
++      else
++              iowrite32(val, xspi->regs + offs);
++}
+-      u32             speed_hz; /* SCK has a fixed frequency of speed_hz Hz */
++static inline u8 xspi_read8(struct xilinx_spi *xspi, u32 offs)
++{
++      return ioread8(xspi->regs + offs + ((xspi->big_endian) ? 3 : 0));
++}
+-      u8 *rx_ptr;             /* pointer in the Tx buffer */
+-      const u8 *tx_ptr;       /* pointer in the Rx buffer */
+-      int remaining_bytes;    /* the number of bytes left to transfer */
+-};
++static inline u16 xspi_read16(struct xilinx_spi *xspi, u32 offs)
++{
++      if (xspi->big_endian)
++              return ioread16be(xspi->regs + offs + 2);
++      else
++              return ioread16(xspi->regs + offs);
++}
++
++static inline u32 xspi_read32(struct xilinx_spi *xspi, u32 offs)
++{
++      if (xspi->big_endian)
++              return ioread32be(xspi->regs + offs);
++      else
++              return ioread32(xspi->regs + offs);
++}
+-static void xspi_init_hw(void __iomem *regs_base)
++static void xspi_init_hw(struct xilinx_spi *xspi)
+ {
+       /* Reset the SPI device */
+-      out_be32(regs_base + XIPIF_V123B_RESETR_OFFSET,
+-               XIPIF_V123B_RESET_MASK);
++      xspi_write32(xspi, XIPIF_V123B_RESETR_OFFSET, XIPIF_V123B_RESET_MASK);
+       /* Disable all the interrupts just in case */
+-      out_be32(regs_base + XIPIF_V123B_IIER_OFFSET, 0);
++      xspi_write32(xspi, XIPIF_V123B_IIER_OFFSET, 0);
+       /* Enable the global IPIF interrupt */
+-      out_be32(regs_base + XIPIF_V123B_DGIER_OFFSET,
+-               XIPIF_V123B_GINTR_ENABLE);
++      xspi_write32(xspi, XIPIF_V123B_DGIER_OFFSET, XIPIF_V123B_GINTR_ENABLE);
+       /* Deselect the slave on the SPI bus */
+-      out_be32(regs_base + XSPI_SSR_OFFSET, 0xffff);
++      xspi_write32(xspi, XSPI_SSR_OFFSET, 0xffff);
+       /* Disable the transmitter, enable Manual Slave Select Assertion,
+        * put SPI controller into master mode, and enable it */
+-      out_be16(regs_base + XSPI_CR_OFFSET,
+-               XSPI_CR_TRANS_INHIBIT | XSPI_CR_MANUAL_SSELECT
+-               | XSPI_CR_MASTER_MODE | XSPI_CR_ENABLE);
++      xspi_write16(xspi, XSPI_CR_OFFSET,
++               XSPI_CR_TRANS_INHIBIT | XSPI_CR_MANUAL_SSELECT |
++               XSPI_CR_MASTER_MODE | XSPI_CR_ENABLE | XSPI_CR_TXFIFO_RESET |
++               XSPI_CR_RXFIFO_RESET);
+ }
+ static void xilinx_spi_chipselect(struct spi_device *spi, int is_on)
+@@ -115,16 +158,16 @@
+       if (is_on == BITBANG_CS_INACTIVE) {
+               /* Deselect the slave on the SPI bus */
+-              out_be32(xspi->regs + XSPI_SSR_OFFSET, 0xffff);
++              xspi_write32(xspi, XSPI_SSR_OFFSET, 0xffff);
+       } else if (is_on == BITBANG_CS_ACTIVE) {
+               /* Set the SPI clock phase and polarity */
+-              u16 cr = in_be16(xspi->regs + XSPI_CR_OFFSET)
++              u16 cr = xspi_read16(xspi, XSPI_CR_OFFSET)
+                        & ~XSPI_CR_MODE_MASK;
+               if (spi->mode & SPI_CPHA)
+                       cr |= XSPI_CR_CPHA;
+               if (spi->mode & SPI_CPOL)
+                       cr |= XSPI_CR_CPOL;
+-              out_be16(xspi->regs + XSPI_CR_OFFSET, cr);
++              xspi_write16(xspi, XSPI_CR_OFFSET, cr);
+               /* We do not check spi->max_speed_hz here as the SPI clock
+                * frequency is not software programmable (the IP block design
+@@ -132,24 +175,27 @@
+                */
+               /* Activate the chip select */
+-              out_be32(xspi->regs + XSPI_SSR_OFFSET,
++              xspi_write32(xspi, XSPI_SSR_OFFSET,
+                        ~(0x0001 << spi->chip_select));
+       }
+ }
+ /* spi_bitbang requires custom setup_transfer() to be defined if there is a
+  * custom txrx_bufs(). We have nothing to setup here as the SPI IP block
+- * supports just 8 bits per word, and SPI clock can't be changed in software.
+- * Check for 8 bits per word. Chip select delay calculations could be
++ * supports 8 or 16 bits per word, which can not be changed in software.
++ * SPI clock can't be changed in software.
++ * Check for correct bits per word. Chip select delay calculations could be
+  * added here as soon as bitbang_work() can be made aware of the delay value.
+  */
+ static int xilinx_spi_setup_transfer(struct spi_device *spi,
+-              struct spi_transfer *t)
++      struct spi_transfer *t)
+ {
+       u8 bits_per_word;
++      struct xilinx_spi *xspi = spi_master_get_devdata(spi->master);
+-      bits_per_word = (t) ? t->bits_per_word : spi->bits_per_word;
+-      if (bits_per_word != 8) {
++      bits_per_word = (t->bits_per_word) ? t->bits_per_word :
++              spi->bits_per_word;
++      if (bits_per_word != xspi->bits_per_word) {
+               dev_err(&spi->dev, "%s, unsupported bits_per_word=%d\n",
+                       __func__, bits_per_word);
+               return -EINVAL;
+@@ -160,34 +206,50 @@
+ static int xilinx_spi_setup(struct spi_device *spi)
+ {
+-      struct spi_bitbang *bitbang;
+-      struct xilinx_spi *xspi;
+-      int retval;
+-
+-      xspi = spi_master_get_devdata(spi->master);
+-      bitbang = &xspi->bitbang;
+-
+-      retval = xilinx_spi_setup_transfer(spi, NULL);
+-      if (retval < 0)
+-              return retval;
+-
++      /* always return 0, we can not check the number of bits.
++       * There are cases when SPI setup is called before any driver is
++       * there, in that case the SPI core defaults to 8 bits, which we
++       * do not support in some cases. But if we return an error, the
++       * SPI device would not be registered and no driver can get hold of it
++       * When the driver is there, it will call SPI setup again with the
++       * correct number of bits per transfer.
++       * If a driver setups with the wrong bit number, it will fail when
++       * it tries to do a transfer
++       */
+       return 0;
+ }
+ static void xilinx_spi_fill_tx_fifo(struct xilinx_spi *xspi)
+ {
+       u8 sr;
++      u8 wsize;
++      if (xspi->bits_per_word == 8)
++              wsize = 1;
++      else if (xspi->bits_per_word == 16)
++              wsize = 2;
++      else
++              wsize = 4;
+       /* Fill the Tx FIFO with as many bytes as possible */
+-      sr = in_8(xspi->regs + XSPI_SR_OFFSET);
+-      while ((sr & XSPI_SR_TX_FULL_MASK) == 0 && xspi->remaining_bytes > 0) {
++      sr = xspi_read8(xspi, XSPI_SR_OFFSET);
++      while ((sr & XSPI_SR_TX_FULL_MASK) == 0 &&
++              xspi->remaining_bytes > 0) {
+               if (xspi->tx_ptr) {
+-                      out_8(xspi->regs + XSPI_TXD_OFFSET, *xspi->tx_ptr++);
+-              } else {
+-                      out_8(xspi->regs + XSPI_TXD_OFFSET, 0);
+-              }
+-              xspi->remaining_bytes--;
+-              sr = in_8(xspi->regs + XSPI_SR_OFFSET);
++                      if (wsize == 1)
++                              xspi_write8(xspi, XSPI_TXD_OFFSET,
++                                      *xspi->tx_ptr);
++                      else if (wsize == 2)
++                              xspi_write16(xspi, XSPI_TXD_OFFSET,
++                                      *(u16 *)(xspi->tx_ptr));
++                      else if (wsize == 4)
++                              xspi_write32(xspi, XSPI_TXD_OFFSET,
++                                      *(u32 *)(xspi->tx_ptr));
++
++                      xspi->tx_ptr += wsize;
++              } else
++                      xspi_write8(xspi, XSPI_TXD_OFFSET, 0);
++              xspi->remaining_bytes -= wsize;
++              sr = xspi_read8(xspi, XSPI_SR_OFFSET);
+       }
+ }
+@@ -209,23 +271,22 @@
+       /* Enable the transmit empty interrupt, which we use to determine
+        * progress on the transmission.
+        */
+-      ipif_ier = in_be32(xspi->regs + XIPIF_V123B_IIER_OFFSET);
+-      out_be32(xspi->regs + XIPIF_V123B_IIER_OFFSET,
++      ipif_ier = xspi_read32(xspi, XIPIF_V123B_IIER_OFFSET);
++      xspi_write32(xspi, XIPIF_V123B_IIER_OFFSET,
+                ipif_ier | XSPI_INTR_TX_EMPTY);
+       /* Start the transfer by not inhibiting the transmitter any longer */
+-      cr = in_be16(xspi->regs + XSPI_CR_OFFSET) & ~XSPI_CR_TRANS_INHIBIT;
+-      out_be16(xspi->regs + XSPI_CR_OFFSET, cr);
++      cr = xspi_read16(xspi, XSPI_CR_OFFSET) & ~XSPI_CR_TRANS_INHIBIT;
++      xspi_write16(xspi, XSPI_CR_OFFSET, cr);
+       wait_for_completion(&xspi->done);
+       /* Disable the transmit empty interrupt */
+-      out_be32(xspi->regs + XIPIF_V123B_IIER_OFFSET, ipif_ier);
++      xspi_write32(xspi, XIPIF_V123B_IIER_OFFSET, ipif_ier);
+       return t->len - xspi->remaining_bytes;
+ }
+-
+ /* This driver supports single master mode only. Hence Tx FIFO Empty
+  * is the only interrupt we care about.
+  * Receive FIFO Overrun, Transmit FIFO Underrun, Mode Fault, and Slave Mode
+@@ -237,32 +298,50 @@
+       u32 ipif_isr;
+       /* Get the IPIF interrupts, and clear them immediately */
+-      ipif_isr = in_be32(xspi->regs + XIPIF_V123B_IISR_OFFSET);
+-      out_be32(xspi->regs + XIPIF_V123B_IISR_OFFSET, ipif_isr);
++      ipif_isr = xspi_read32(xspi, XIPIF_V123B_IISR_OFFSET);
++      xspi_write32(xspi, XIPIF_V123B_IISR_OFFSET, ipif_isr);
+       if (ipif_isr & XSPI_INTR_TX_EMPTY) {    /* Transmission completed */
+               u16 cr;
+               u8 sr;
++              u8 rsize;
++              if (xspi->bits_per_word == 8)
++                      rsize = 1;
++              else if (xspi->bits_per_word == 16)
++                      rsize = 2;
++              else
++                      rsize = 4;
+               /* A transmit has just completed. Process received data and
+                * check for more data to transmit. Always inhibit the
+                * transmitter while the Isr refills the transmit register/FIFO,
+                * or make sure it is stopped if we're done.
+                */
+-              cr = in_be16(xspi->regs + XSPI_CR_OFFSET);
+-              out_be16(xspi->regs + XSPI_CR_OFFSET,
+-                       cr | XSPI_CR_TRANS_INHIBIT);
++              cr = xspi_read16(xspi, XSPI_CR_OFFSET);
++              xspi_write16(xspi, XSPI_CR_OFFSET, cr | XSPI_CR_TRANS_INHIBIT);
+               /* Read out all the data from the Rx FIFO */
+-              sr = in_8(xspi->regs + XSPI_SR_OFFSET);
++              sr = xspi_read8(xspi, XSPI_SR_OFFSET);
+               while ((sr & XSPI_SR_RX_EMPTY_MASK) == 0) {
+-                      u8 data;
++                      u32 data;
++                      if (rsize == 1)
++                              data = xspi_read8(xspi, XSPI_RXD_OFFSET);
++                      else if (rsize == 2)
++                              data = xspi_read16(xspi, XSPI_RXD_OFFSET);
++                      else
++                              data = xspi_read32(xspi, XSPI_RXD_OFFSET);
+-                      data = in_8(xspi->regs + XSPI_RXD_OFFSET);
+                       if (xspi->rx_ptr) {
+-                              *xspi->rx_ptr++ = data;
++                              if (rsize == 1)
++                                      *xspi->rx_ptr = data & 0xff;
++                              else if (rsize == 2)
++                                      *(u16 *)(xspi->rx_ptr) = data & 0xffff;
++                              else
++                                      *((u32 *)(xspi->rx_ptr)) = data;
++                              xspi->rx_ptr += rsize;
+                       }
+-                      sr = in_8(xspi->regs + XSPI_SR_OFFSET);
++
++                      sr = xspi_read8(xspi, XSPI_SR_OFFSET);
+               }
+               /* See if there is more data to send */
+@@ -271,7 +350,7 @@
+                       /* Start the transfer by not inhibiting the
+                        * transmitter any longer
+                        */
+-                      out_be16(xspi->regs + XSPI_CR_OFFSET, cr);
++                      xspi_write16(xspi, XSPI_CR_OFFSET, cr);
+               } else {
+                       /* No more data to send.
+                        * Indicate the transfer is completed.
+@@ -279,44 +358,21 @@
+                       complete(&xspi->done);
+               }
+       }
+-
+       return IRQ_HANDLED;
+ }
+-static int __init xilinx_spi_of_probe(struct of_device *ofdev,
+-                                      const struct of_device_id *match)
++struct spi_master *xilinx_spi_init(struct device *dev, struct resource *mem,
++      u32 irq, s16 bus_num, u16 num_chipselect, u8 bits_per_word,
++      bool big_endian)
+ {
+       struct spi_master *master;
+       struct xilinx_spi *xspi;
+-      struct resource r_irq_struct;
+-      struct resource r_mem_struct;
++      int ret = 0;
+-      struct resource *r_irq = &r_irq_struct;
+-      struct resource *r_mem = &r_mem_struct;
+-      int rc = 0;
+-      const u32 *prop;
+-      int len;
++      master = spi_alloc_master(dev, sizeof(struct xilinx_spi));
+-      /* Get resources(memory, IRQ) associated with the device */
+-      master = spi_alloc_master(&ofdev->dev, sizeof(struct xilinx_spi));
+-
+-      if (master == NULL) {
+-              return -ENOMEM;
+-      }
+-
+-      dev_set_drvdata(&ofdev->dev, master);
+-
+-      rc = of_address_to_resource(ofdev->node, 0, r_mem);
+-      if (rc) {
+-              dev_warn(&ofdev->dev, "invalid address\n");
+-              goto put_master;
+-      }
+-
+-      rc = of_irq_to_resource(ofdev->node, 0, r_irq);
+-      if (rc == NO_IRQ) {
+-              dev_warn(&ofdev->dev, "no IRQ found\n");
+-              goto put_master;
+-      }
++      if (master == NULL)
++              return ERR_PTR(-ENOMEM);
+       /* the spi->mode bits understood by this driver: */
+       master->mode_bits = SPI_CPOL | SPI_CPHA;
+@@ -329,128 +385,73 @@
+       xspi->bitbang.master->setup = xilinx_spi_setup;
+       init_completion(&xspi->done);
+-      xspi->irq = r_irq->start;
+-
+-      if (!request_mem_region(r_mem->start,
+-                      r_mem->end - r_mem->start + 1, XILINX_SPI_NAME)) {
+-              rc = -ENXIO;
+-              dev_warn(&ofdev->dev, "memory request failure\n");
++      if (!request_mem_region(mem->start, resource_size(mem),
++              XILINX_SPI_NAME)) {
++              ret = -ENXIO;
+               goto put_master;
+       }
+-      xspi->regs = ioremap(r_mem->start, r_mem->end - r_mem->start + 1);
++      xspi->regs = ioremap(mem->start, resource_size(mem));
+       if (xspi->regs == NULL) {
+-              rc = -ENOMEM;
+-              dev_warn(&ofdev->dev, "ioremap failure\n");
+-              goto release_mem;
++              ret = -ENOMEM;
++              dev_warn(dev, "ioremap failure\n");
++              goto map_failed;
+       }
+-      xspi->irq = r_irq->start;
+-      /* dynamic bus assignment */
+-      master->bus_num = -1;
+-
+-      /* number of slave select bits is required */
+-      prop = of_get_property(ofdev->node, "xlnx,num-ss-bits", &len);
+-      if (!prop || len < sizeof(*prop)) {
+-              dev_warn(&ofdev->dev, "no 'xlnx,num-ss-bits' property\n");
+-              goto unmap_io;
+-      }
+-      master->num_chipselect = *prop;
++      master->bus_num = bus_num;
++      master->num_chipselect = num_chipselect;
++
++      xspi->mem = *mem;
++      xspi->irq = irq;
++      xspi->bits_per_word = bits_per_word;
++      xspi->big_endian = big_endian;
+       /* SPI controller initializations */
+-      xspi_init_hw(xspi->regs);
++      xspi_init_hw(xspi);
+       /* Register for SPI Interrupt */
+-      rc = request_irq(xspi->irq, xilinx_spi_irq, 0, XILINX_SPI_NAME, xspi);
+-      if (rc != 0) {
+-              dev_warn(&ofdev->dev, "irq request failure: %d\n", xspi->irq);
++      ret = request_irq(xspi->irq, xilinx_spi_irq, 0, XILINX_SPI_NAME, xspi);
++      if (ret != 0)
+               goto unmap_io;
+-      }
+-      rc = spi_bitbang_start(&xspi->bitbang);
+-      if (rc != 0) {
+-              dev_err(&ofdev->dev, "spi_bitbang_start FAILED\n");
++      ret = spi_bitbang_start(&xspi->bitbang);
++      if (ret != 0) {
++              dev_err(dev, "spi_bitbang_start FAILED\n");
+               goto free_irq;
+       }
+-      dev_info(&ofdev->dev, "at 0x%08X mapped to 0x%08X, irq=%d\n",
+-                      (unsigned int)r_mem->start, (u32)xspi->regs, xspi->irq);
+-
+-      /* Add any subnodes on the SPI bus */
+-      of_register_spi_devices(master, ofdev->node);
+-
+-      return rc;
++      dev_info(dev, "at 0x%08X mapped to 0x%08X, irq=%d\n",
++              (u32)mem->start, (u32)xspi->regs, xspi->irq);
++      return master;
+ free_irq:
+       free_irq(xspi->irq, xspi);
+ unmap_io:
+       iounmap(xspi->regs);
+-release_mem:
+-      release_mem_region(r_mem->start, resource_size(r_mem));
++map_failed:
++      release_mem_region(mem->start, resource_size(mem));
+ put_master:
+       spi_master_put(master);
+-      return rc;
++      return ERR_PTR(ret);
+ }
++EXPORT_SYMBOL(xilinx_spi_init);
+-static int __devexit xilinx_spi_remove(struct of_device *ofdev)
++void xilinx_spi_deinit(struct spi_master *master)
+ {
+       struct xilinx_spi *xspi;
+-      struct spi_master *master;
+-      struct resource r_mem;
+-      master = platform_get_drvdata(ofdev);
+       xspi = spi_master_get_devdata(master);
+       spi_bitbang_stop(&xspi->bitbang);
+       free_irq(xspi->irq, xspi);
+       iounmap(xspi->regs);
+-      if (!of_address_to_resource(ofdev->node, 0, &r_mem))
+-              release_mem_region(r_mem.start, resource_size(&r_mem));
+-      dev_set_drvdata(&ofdev->dev, 0);
+-      spi_master_put(xspi->bitbang.master);
+-
+-      return 0;
+-}
+-
+-/* work with hotplug and coldplug */
+-MODULE_ALIAS("platform:" XILINX_SPI_NAME);
+-
+-static int __exit xilinx_spi_of_remove(struct of_device *op)
+-{
+-      return xilinx_spi_remove(op);
+-}
+-static struct of_device_id xilinx_spi_of_match[] = {
+-      { .compatible = "xlnx,xps-spi-2.00.a", },
+-      { .compatible = "xlnx,xps-spi-2.00.b", },
+-      {}
+-};
+-
+-MODULE_DEVICE_TABLE(of, xilinx_spi_of_match);
+-
+-static struct of_platform_driver xilinx_spi_of_driver = {
+-      .owner = THIS_MODULE,
+-      .name = "xilinx-xps-spi",
+-      .match_table = xilinx_spi_of_match,
+-      .probe = xilinx_spi_of_probe,
+-      .remove = __exit_p(xilinx_spi_of_remove),
+-      .driver = {
+-              .name = "xilinx-xps-spi",
+-              .owner = THIS_MODULE,
+-      },
+-};
+-
+-static int __init xilinx_spi_init(void)
+-{
+-      return of_register_platform_driver(&xilinx_spi_of_driver);
++      release_mem_region(xspi->mem.start, resource_size(&xspi->mem));
++      spi_master_put(xspi->bitbang.master);
+ }
+-module_init(xilinx_spi_init);
++EXPORT_SYMBOL(xilinx_spi_deinit);
+-static void __exit xilinx_spi_exit(void)
+-{
+-      of_unregister_platform_driver(&xilinx_spi_of_driver);
+-}
+-module_exit(xilinx_spi_exit);
+ MODULE_AUTHOR("MontaVista Software, Inc. <source@mvista.com>");
+ MODULE_DESCRIPTION("Xilinx SPI driver");
+ MODULE_LICENSE("GPL");
++
+diff -uNr linux-2.6.31/drivers/spi/xilinx_spi.h linux-2.6.31.new/drivers/spi/xilinx_spi.h
+--- linux-2.6.31/drivers/spi/xilinx_spi.h      1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/spi/xilinx_spi.h  2009-10-23 11:17:32.000000000 -0700
+@@ -0,0 +1,33 @@
++/*
++ * xilinx_spi.h
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#ifndef _XILINX_SPI_H_
++#define _XILINX_SPI_H_ 1
++
++#include <linux/spi/spi.h>
++#include <linux/spi/spi_bitbang.h>
++#include <linux/spi/xilinx_spi.h>
++
++#define XILINX_SPI_NAME "xilinx_spi"
++
++struct spi_master *xilinx_spi_init(struct device *dev, struct resource *mem,
++      u32 irq, s16 bus_num, u16 num_chipselect, u8 bits_per_word,
++      bool big_endian);
++
++void xilinx_spi_deinit(struct spi_master *master);
++#endif
+diff -uNr linux-2.6.31/drivers/spi/xilinx_spi_of.c linux-2.6.31.new/drivers/spi/xilinx_spi_of.c
+--- linux-2.6.31/drivers/spi/xilinx_spi_of.c   1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/spi/xilinx_spi_of.c       2009-10-23 11:17:32.000000000 -0700
+@@ -0,0 +1,120 @@
++/*
++ * xilinx_spi_of.c
++ *
++ * Xilinx SPI controller driver (master mode only)
++ *
++ * Author: MontaVista Software, Inc.
++ *    source@mvista.com
++ *
++ * 2002-2007 (c) MontaVista Software, Inc.  This file is licensed under the
++ * terms of the GNU General Public License version 2.  This program is licensed
++ * "as is" without any warranty of any kind, whether express or implied.
++ */
++
++#include <linux/module.h>
++#include <linux/init.h>
++#include <linux/interrupt.h>
++#include <linux/io.h>
++#include <linux/platform_device.h>
++
++#include <linux/of_platform.h>
++#include <linux/of_device.h>
++#include <linux/of_spi.h>
++
++#include <linux/spi/spi.h>
++#include <linux/spi/spi_bitbang.h>
++
++#include "xilinx_spi.h"
++
++
++static int __init xilinx_spi_of_probe(struct of_device *ofdev,
++                                      const struct of_device_id *match)
++{
++      struct resource r_irq_struct;
++      struct resource r_mem_struct;
++      struct spi_master *master;
++
++      struct resource *r_irq = &r_irq_struct;
++      struct resource *r_mem = &r_mem_struct;
++      int rc = 0;
++      const u32 *prop;
++      int len;
++
++      rc = of_address_to_resource(ofdev->node, 0, r_mem);
++      if (rc) {
++              dev_warn(&ofdev->dev, "invalid address\n");
++              return rc;
++      }
++
++      rc = of_irq_to_resource(ofdev->node, 0, r_irq);
++      if (rc == NO_IRQ) {
++              dev_warn(&ofdev->dev, "no IRQ found\n");
++              return -ENODEV;
++      }
++
++      /* number of slave select bits is required */
++      prop = of_get_property(ofdev->node, "xlnx,num-ss-bits", &len);
++      if (!prop || len < sizeof(*prop)) {
++              dev_warn(&ofdev->dev, "no 'xlnx,num-ss-bits' property\n");
++              return -EINVAL;
++      }
++      master = xilinx_spi_init(&ofdev->dev, r_mem, r_irq->start, -1, *prop, 8,
++              true);
++      if (IS_ERR(master))
++              return PTR_ERR(master);
++
++      dev_set_drvdata(&ofdev->dev, master);
++
++      /* Add any subnodes on the SPI bus */
++      of_register_spi_devices(master, ofdev->node);
++
++      return 0;
++}
++
++static int __devexit xilinx_spi_remove(struct of_device *ofdev)
++{
++      xilinx_spi_deinit(dev_get_drvdata(&ofdev->dev));
++      dev_set_drvdata(&ofdev->dev, 0);
++      return 0;
++}
++
++static int __exit xilinx_spi_of_remove(struct of_device *op)
++{
++      return xilinx_spi_remove(op);
++}
++
++static struct of_device_id xilinx_spi_of_match[] = {
++      { .compatible = "xlnx,xps-spi-2.00.a", },
++      { .compatible = "xlnx,xps-spi-2.00.b", },
++      {}
++};
++
++MODULE_DEVICE_TABLE(of, xilinx_spi_of_match);
++
++static struct of_platform_driver xilinx_spi_of_driver = {
++      .owner = THIS_MODULE,
++      .name = "xilinx-xps-spi",
++      .match_table = xilinx_spi_of_match,
++      .probe = xilinx_spi_of_probe,
++      .remove = __exit_p(xilinx_spi_of_remove),
++      .driver = {
++              .name = "xilinx-xps-spi",
++              .owner = THIS_MODULE,
++      },
++};
++
++static int __init xilinx_spi_of_init(void)
++{
++      return of_register_platform_driver(&xilinx_spi_of_driver);
++}
++module_init(xilinx_spi_of_init);
++
++static void __exit xilinx_spi_of_exit(void)
++{
++      of_unregister_platform_driver(&xilinx_spi_of_driver);
++}
++module_exit(xilinx_spi_of_exit);
++MODULE_AUTHOR("MontaVista Software, Inc. <source@mvista.com>");
++MODULE_DESCRIPTION("Xilinx SPI driver");
++MODULE_LICENSE("GPL");
++
+diff -uNr linux-2.6.31/drivers/spi/xilinx_spi_pltfm.c linux-2.6.31.new/drivers/spi/xilinx_spi_pltfm.c
+--- linux-2.6.31/drivers/spi/xilinx_spi_pltfm.c        1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/drivers/spi/xilinx_spi_pltfm.c    2009-10-23 11:17:32.000000000 -0700
+@@ -0,0 +1,104 @@
++/*
++ * xilinx_spi_pltfm.c Support for Xilinx SPI platform devices
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Xilinx SPI devices as platform devices
++ *
++ * Inspired by xilinx_spi.c, 2002-2007 (c) MontaVista Software, Inc.
++ */
++
++#include <linux/module.h>
++#include <linux/init.h>
++#include <linux/interrupt.h>
++#include <linux/io.h>
++#include <linux/platform_device.h>
++
++#include <linux/spi/spi.h>
++#include <linux/spi/spi_bitbang.h>
++#include <linux/spi/xilinx_spi.h>
++
++#include "xilinx_spi.h"
++
++static int __devinit xilinx_spi_probe(struct platform_device *dev)
++{
++      struct xspi_platform_data *pdata;
++      struct resource *r;
++      int irq;
++      struct spi_master *master;
++      u8 i;
++
++      pdata = dev->dev.platform_data;
++      if (pdata == NULL)
++              return -ENODEV;
++
++      r = platform_get_resource(dev, IORESOURCE_MEM, 0);
++      if (r == NULL)
++              return -ENODEV;
++
++      irq = platform_get_irq(dev, 0);
++      if (irq < 0)
++              return -ENXIO;
++
++      master = xilinx_spi_init(&dev->dev, r, irq, dev->id,
++              pdata->num_chipselect, pdata->bits_per_word, false);
++      if (IS_ERR(master))
++              return PTR_ERR(master);
++
++      for (i = 0; i < pdata->num_devices; i++)
++              spi_new_device(master, pdata->devices + i);
++
++      platform_set_drvdata(dev, master);
++      return 0;
++}
++
++static int __devexit xilinx_spi_remove(struct platform_device *dev)
++{
++      xilinx_spi_deinit(platform_get_drvdata(dev));
++      platform_set_drvdata(dev, 0);
++
++      return 0;
++}
++
++/* work with hotplug and coldplug */
++MODULE_ALIAS("platform:" XILINX_SPI_NAME);
++
++static struct platform_driver xilinx_spi_driver = {
++      .probe  = xilinx_spi_probe,
++      .remove = __devexit_p(xilinx_spi_remove),
++      .driver = {
++              .name = XILINX_SPI_NAME,
++              .owner = THIS_MODULE,
++      },
++};
++
++static int __init xilinx_spi_pltfm_init(void)
++{
++      return platform_driver_register(&xilinx_spi_driver);
++}
++module_init(xilinx_spi_pltfm_init);
++
++static void __exit xilinx_spi_pltfm_exit(void)
++{
++      platform_driver_unregister(&xilinx_spi_driver);
++}
++module_exit(xilinx_spi_pltfm_exit);
++
++MODULE_AUTHOR("Mocean Laboratories <info@mocean-labs.com>");
++MODULE_DESCRIPTION("Xilinx SPI platform driver");
++MODULE_LICENSE("GPL v2");
++
+diff -uNr linux-2.6.31/include/linux/can/platform/ascb.h linux-2.6.31.new/include/linux/can/platform/ascb.h
+--- linux-2.6.31/include/linux/can/platform/ascb.h     1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/linux/can/platform/ascb.h 2009-10-23 11:16:56.000000000 -0700
+@@ -0,0 +1,8 @@
++#ifndef _CAN_PLATFORM_ASCB_H_
++#define _CAN_PLATFORM_ASCB_H_
++
++struct ascb_platform_data {
++      int gpio_pin;
++};
++
++#endif
+diff -uNr linux-2.6.31/include/linux/i2c-xiic.h linux-2.6.31.new/include/linux/i2c-xiic.h
+--- linux-2.6.31/include/linux/i2c-xiic.h      1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/linux/i2c-xiic.h  2009-10-23 11:16:56.000000000 -0700
+@@ -0,0 +1,31 @@
++/*
++ * i2c-xiic.h
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Xilinx IIC
++ */
++
++#ifndef _LINUX_I2C_XIIC_H
++#define _LINUX_I2C_XIIC_H
++
++struct xiic_i2c_platform_data {
++  u8 num_devices; /* number of devices in the devices list */
++  struct i2c_board_info const *devices; /* devices connected to the bus */
++};
++
++#endif /* _LINUX_I2C_XIIC_H */
+diff -uNr linux-2.6.31/include/linux/mfd/timbdma.h linux-2.6.31.new/include/linux/mfd/timbdma.h
+--- linux-2.6.31/include/linux/mfd/timbdma.h   1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/linux/mfd/timbdma.h       2009-10-23 11:16:56.000000000 -0700
+@@ -0,0 +1,58 @@
++/*
++ * timbdma.h timberdale FPGA DMA driver defines
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Timberdale FPGA DMA engine
++ */
++
++#ifndef _TIMBDMA_H
++#define _TIMBDMA_H
++
++#include <linux/spinlock.h>
++
++
++#define DMA_IRQ_UART_RX               0x001
++#define DMA_IRQ_UART_TX               0x002
++#define DMA_IRQ_MLB_RX                0x004
++#define DMA_IRQ_MLB_TX                0x008
++#define DMA_IRQ_VIDEO_RX      0x010
++#define DMA_IRQ_VIDEO_DROP    0x020
++#define DMA_IRQ_SDHCI_RX      0x040
++#define DMA_IRQ_SDHCI_TX      0x080
++#define DMA_IRQ_ETH_RX                0x100
++#define DMA_IRQ_ETH_TX                0x200
++#define DMA_IRQS              10
++
++
++typedef int (*timbdma_interruptcb)(u32 flag, void *data);
++
++
++int timbdma_start(u32 flag, void *desc, int bytes_per_row);
++
++int timbdma_stop(u32 flags);
++
++void timbdma_set_interruptcb(u32 flags, timbdma_interruptcb icb, void *data);
++
++void *timbdma_alloc_desc(u32 size, u16 alignment);
++
++void timbdma_free_desc(void *desc);
++
++int timbdma_prep_desc(void *desc, dma_addr_t buf, u32 size);
++
++#endif /* _TIMBDMA_H */
++
+diff -uNr linux-2.6.31/include/linux/most/timbmlb.h linux-2.6.31.new/include/linux/most/timbmlb.h
+--- linux-2.6.31/include/linux/most/timbmlb.h  1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/linux/most/timbmlb.h      2009-10-23 11:16:56.000000000 -0700
+@@ -0,0 +1,9 @@
++#ifndef __LINUX_MOST_TIMBMLB_H
++#define __LINUX_MOST_TIMBMLB_H
++
++/* Timberdale MLB IP */
++struct timbmlb_platform_data {
++      int reset_pin; /* pin used for reset of the INIC */
++};
++
++#endif
+diff -uNr linux-2.6.31/include/linux/socket.h linux-2.6.31.new/include/linux/socket.h
+--- linux-2.6.31/include/linux/socket.h        2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/include/linux/socket.h    2009-10-23 11:16:56.000000000 -0700
+@@ -195,7 +195,8 @@
+ #define AF_ISDN               34      /* mISDN sockets                */
+ #define AF_PHONET     35      /* Phonet sockets               */
+ #define AF_IEEE802154 36      /* IEEE802154 sockets           */
+-#define AF_MAX                37      /* For now.. */
++#define AF_MOST               37      /* Media Oriented Systems Transport */
++#define AF_MAX                38      /* For now.. */
+ /* Protocol families, same as address families. */
+ #define PF_UNSPEC     AF_UNSPEC
+@@ -235,6 +236,7 @@
+ #define PF_ISDN               AF_ISDN
+ #define PF_PHONET     AF_PHONET
+ #define PF_IEEE802154 AF_IEEE802154
++#define PF_MOST               AF_MOST
+ #define PF_MAX                AF_MAX
+ /* Maximum queue length specifiable by listen.  */
+diff -uNr linux-2.6.31/include/linux/spi/mc33880.h linux-2.6.31.new/include/linux/spi/mc33880.h
+--- linux-2.6.31/include/linux/spi/mc33880.h   1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/linux/spi/mc33880.h       2009-10-23 11:16:56.000000000 -0700
+@@ -0,0 +1,10 @@
++#ifndef LINUX_SPI_MC33880_H
++#define LINUX_SPI_MC33880_H
++
++struct mc33880_platform_data {
++      /* number assigned to the first GPIO */
++      unsigned        base;
++};
++
++#endif
++
+diff -uNr linux-2.6.31/include/linux/spi/xilinx_spi.h linux-2.6.31.new/include/linux/spi/xilinx_spi.h
+--- linux-2.6.31/include/linux/spi/xilinx_spi.h        1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/linux/spi/xilinx_spi.h    2009-10-23 11:16:56.000000000 -0700
+@@ -0,0 +1,19 @@
++#ifndef __LINUX_SPI_XILINX_SPI_H
++#define __LINUX_SPI_XILINX_SPI_H
++
++/**
++ * struct xspi_platform_data - Platform data of the Xilinx SPI driver
++ * @num_chipselect:   Number of chip select by the IP
++ * @bits_per_word:    Number of bits per word. 8/16/32, Note that the DS464
++ *                    only support 8bit SPI.
++ * @devices:          Devices to add when the driver is probed.
++ * @num_devices:      Number of devices in the devices array.
++ */
++struct xspi_platform_data {
++      u16 num_chipselect;
++      u8 bits_per_word;
++      struct spi_board_info *devices;
++      u8 num_devices;
++};
++
++#endif /* __LINUX_SPI_XILINX_SPI_H */
+diff -uNr linux-2.6.31/include/linux/timb_gpio.h linux-2.6.31.new/include/linux/timb_gpio.h
+--- linux-2.6.31/include/linux/timb_gpio.h     1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/linux/timb_gpio.h 2009-10-23 11:16:56.000000000 -0700
+@@ -0,0 +1,28 @@
++/*
++ * timb_gpio.h timberdale FPGA GPIO driver, platform data definition
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#ifndef _LINUX_TIMB_GPIO_H
++#define _LINUX_TIMB_GPIO_H
++
++struct timbgpio_platform_data {
++      int gpio_base;
++      int nr_pins;
++      int irq_base;
++};
++
++#endif
+diff -uNr linux-2.6.31/include/media/timb_radio.h linux-2.6.31.new/include/media/timb_radio.h
+--- linux-2.6.31/include/media/timb_radio.h    1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/media/timb_radio.h        2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,31 @@
++/*
++ * timb_radio.h Platform struct for the Timberdale radio driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#ifndef _TIMB_RADIO_
++#define _TIMB_RADIO_ 1
++
++#include <linux/i2c.h>
++
++struct timb_radio_platform_data {
++      int i2c_adapter; /* I2C adapter where the tuner and dsp are attached */
++      char tuner[32];
++      char dsp[32];
++};
++
++#endif
++
+diff -uNr linux-2.6.31/include/media/timb_video.h linux-2.6.31.new/include/media/timb_video.h
+--- linux-2.6.31/include/media/timb_video.h    1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/media/timb_video.h        2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,30 @@
++/*
++ * timb_video.h Platform struct for the Timberdale video driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#ifndef _TIMB_VIDEO_
++#define _TIMB_VIDEO_ 1
++
++#include <linux/i2c.h>
++
++struct timb_video_platform_data {
++      int i2c_adapter; /* The I2C adapter where the encoder is attached */
++      char encoder[32];
++};
++
++#endif
++
+diff -uNr linux-2.6.31/include/media/v4l2-chip-ident.h linux-2.6.31.new/include/media/v4l2-chip-ident.h
+--- linux-2.6.31/include/media/v4l2-chip-ident.h       2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/include/media/v4l2-chip-ident.h   2009-10-23 11:16:55.000000000 -0700
+@@ -129,12 +129,18 @@
+       V4L2_IDENT_SAA6752HS = 6752,
+       V4L2_IDENT_SAA6752HS_AC3 = 6753,
++      /* modules tef6862: just ident 6862 */
++      V4L2_IDENT_TEF6862 = 6862,
++
+       /* module adv7170: just ident 7170 */
+       V4L2_IDENT_ADV7170 = 7170,
+       /* module adv7175: just ident 7175 */
+       V4L2_IDENT_ADV7175 = 7175,
++      /* module adv7180: just ident 7180 */
++      V4L2_IDENT_ADV7180 = 7180,
++
+       /* module saa7185: just ident 7185 */
+       V4L2_IDENT_SAA7185 = 7185,
+@@ -147,6 +153,9 @@
+       /* module adv7343: just ident 7343 */
+       V4L2_IDENT_ADV7343 = 7343,
++      /* module saa7706h: just ident 7706 */
++      V4L2_IDENT_SAA7706H = 7706,
++
+       /* module wm8739: just ident 8739 */
+       V4L2_IDENT_WM8739 = 8739,
+diff -uNr linux-2.6.31/include/net/most/async.h linux-2.6.31.new/include/net/most/async.h
+--- linux-2.6.31/include/net/most/async.h      1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/net/most/async.h  2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,12 @@
++#ifndef __ASYNC_H
++#define __ASYNC_H
++
++struct sockaddr_mostasync {
++      sa_family_t    most_family;
++      unsigned short most_dev;
++      unsigned char  rx_channel;
++      unsigned char  tx_channel;
++};
++
++#endif
++
+diff -uNr linux-2.6.31/include/net/most/ctl.h linux-2.6.31.new/include/net/most/ctl.h
+--- linux-2.6.31/include/net/most/ctl.h        1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/net/most/ctl.h    2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,12 @@
++#ifndef __CTL_H
++#define __CTL_H
++
++struct sockaddr_mostctl {
++      sa_family_t    most_family;
++      unsigned short most_dev;
++      unsigned char  rx_channel;
++      unsigned char  tx_channel;
++};
++
++#endif
++
+diff -uNr linux-2.6.31/include/net/most/dev.h linux-2.6.31.new/include/net/most/dev.h
+--- linux-2.6.31/include/net/most/dev.h        1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/net/most/dev.h    2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,27 @@
++#ifndef __DEV_H
++#define __DEV_H
++
++struct sockaddr_mostdev {
++      sa_family_t    most_family;
++      unsigned short most_dev;
++};
++
++
++/* MOST Dev ioctl defines */
++#define MOSTDEVUP     _IOW('M', 201, int)
++#define MOSTDEVDOWN   _IOW('M', 202, int)
++
++#define MOSTGETDEVLIST        _IOR('M', 210, int)
++
++struct most_dev_req {
++      uint16_t dev_id;
++};
++
++struct most_dev_list_req {
++      uint16_t dev_num;
++      struct most_dev_req dev_req[0];
++};
++
++
++#endif
++
+diff -uNr linux-2.6.31/include/net/most/most_core.h linux-2.6.31.new/include/net/most/most_core.h
+--- linux-2.6.31/include/net/most/most_core.h  1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/net/most/most_core.h      2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,133 @@
++#ifndef __MOST_CORE_H
++#define __MOST_CORE_H
++
++#include <net/most/most.h>
++
++enum most_chan_type {
++      CHAN_CTL = 0,
++      CHAN_SYNC,
++      CHAN_ASYNC,
++      CHAN_DEV
++};
++
++#define MOST_CONF_FLAG_UP   0x01
++#define MOST_CONF_FLAG_TX   0x02
++
++enum most_dev_state {
++      MOST_DEV_DOWN = 0,
++      MOST_DEV_UP
++};
++
++struct most_dev {
++
++      struct list_head list;
++      atomic_t        refcnt;
++
++      char            name[8];
++
++      __u16           id;
++      enum most_dev_state state;
++
++      struct module   *owner;
++
++      struct tasklet_struct   rx_task;
++      struct tasklet_struct   tx_task;
++
++      struct sk_buff_head     rx_q;
++      struct sk_buff_head     ctl_q;
++      struct sk_buff_head     async_q;
++      struct sk_buff_head     sync_q;
++
++      /* set by the driver */
++
++      void            *driver_data;
++      struct device   *parent;
++
++      int (*open)(struct most_dev *mdev);
++      int (*close)(struct most_dev *mdev);
++      int (*conf_channel)(struct most_dev *mdev, enum most_chan_type type,
++              u8 channel, u8 flags);
++      int (*send)(struct sk_buff *skb);
++      int (*can_send)(struct sk_buff *skb);
++};
++
++#define most_dbg(...) printk(__VA_ARGS__)
++
++static inline struct most_dev *most_dev_hold(struct most_dev *d)
++{
++      if (try_module_get(d->owner))
++              return d;
++      return NULL;
++}
++
++static inline void most_dev_put(struct most_dev *d)
++{
++      module_put(d->owner);
++}
++
++static inline void most_sched_tx(struct most_dev *mdev)
++{
++      tasklet_schedule(&mdev->tx_task);
++}
++
++static inline void most_sched_rx(struct most_dev *mdev)
++{
++      tasklet_schedule(&mdev->rx_task);
++}
++
++static inline int most_recv_frame(struct sk_buff *skb)
++{
++      struct most_dev *mdev = (struct most_dev *) skb->dev;
++
++      /* Time stamp */
++      __net_timestamp(skb);
++
++      /* Queue frame for rx task */
++      skb_queue_tail(&mdev->rx_q, skb);
++      most_sched_rx(mdev);
++      return 0;
++}
++
++static inline int __most_configure_channel(struct most_dev *mdev,
++      u8 channel_type, u8 channel, u8 up)
++{
++      if (mdev->state != MOST_DEV_UP)
++              return -ENETDOWN;
++
++      if (mdev->conf_channel)
++              if (channel != MOST_NO_CHANNEL)
++                      return mdev->conf_channel(mdev, channel_type, channel,
++                              up);
++      return 0;
++}
++
++static inline int most_configure_channels(struct most_dev *mdev,
++      struct most_sock *sk, u8 up)
++{
++      int err;
++      u8 flags = (up) ? MOST_CONF_FLAG_UP : 0;
++
++      err = __most_configure_channel(mdev, sk->channel_type, sk->rx_channel,
++              flags);
++      if (err)
++              return err;
++
++      err = __most_configure_channel(mdev, sk->channel_type, sk->tx_channel,
++              flags | MOST_CONF_FLAG_TX);
++      if (err)
++              __most_configure_channel(mdev, sk->channel_type, sk->rx_channel,
++              (up) ? 0 : MOST_CONF_FLAG_UP);
++      return err;
++}
++
++struct most_dev *most_alloc_dev(void);
++void most_free_dev(struct most_dev *mdev);
++int most_register_dev(struct most_dev *mdev);
++int most_unregister_dev(struct most_dev *mdev);
++
++int most_get_dev_list(void __user *arg);
++int most_open_dev(u16 dev_id);
++int most_close_dev(u16 dev_id);
++
++#endif
++
+diff -uNr linux-2.6.31/include/net/most/most.h linux-2.6.31.new/include/net/most/most.h
+--- linux-2.6.31/include/net/most/most.h       1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/net/most/most.h   2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,110 @@
++#ifndef __MOST_H
++#define __MOST_H
++
++#include <net/sock.h>
++
++#ifndef AF_MOST
++#define AF_MOST       37
++#define PF_MOST       AF_MOST
++#endif
++
++/* Reserve for core and drivers use */
++#define MOST_SKB_RESERVE      8
++
++#define CTL_FRAME_SIZE 32
++
++#define MOSTPROTO_DEV 0
++#define MOSTPROTO_CTL 1
++#define MOSTPROTO_SYNC        2
++#define MOSTPROTO_ASYNC       3
++
++#define MOST_NO_CHANNEL 0xFE
++
++enum {
++      MOST_CONNECTED = 1, /* Equal to TCP_ESTABLISHED makes net code happy */
++      MOST_OPEN,
++      MOST_BOUND,
++};
++
++
++struct most_skb_cb {
++      __u8 channel_type;
++      __u8 channel;
++};
++#define most_cb(skb) ((struct most_skb_cb *)(skb->cb))
++
++struct most_sock {
++      struct sock sk;
++      u8 channel_type;
++      u8 rx_channel;
++      u8 tx_channel;
++      int dev_id;
++      struct most_dev *mdev;
++};
++#define most_sk(sk) ((struct most_sock *)sk)
++
++static inline struct sock *most_sk_alloc(struct net *net,
++      struct proto *pops, u8 channel_type)
++{
++      struct sock *sk = sk_alloc(net, PF_MOST, GFP_ATOMIC, pops);
++      if (sk) {
++              most_sk(sk)->channel_type = channel_type;
++              most_sk(sk)->dev_id = -1;
++      }
++
++      return sk;
++}
++static inline struct sk_buff *most_skb_alloc(unsigned int len, gfp_t how)
++{
++      struct sk_buff *skb = alloc_skb(len + MOST_SKB_RESERVE, how);
++
++      if (skb)
++              skb_reserve(skb, MOST_SKB_RESERVE);
++
++      return skb;
++}
++
++static inline struct sk_buff *most_skb_send_alloc(struct sock *sk,
++      unsigned long len, int nb, int *err)
++{
++      struct sk_buff *skb =
++              sock_alloc_send_skb(sk, len + MOST_SKB_RESERVE, nb, err);
++
++      if (skb)
++              skb_reserve(skb, MOST_SKB_RESERVE);
++
++      return skb;
++}
++
++struct most_sock_list {
++      struct hlist_head head;
++      rwlock_t          lock;
++};
++
++struct most_dev *most_dev_get(int index);
++
++int most_sock_register(int proto, struct net_proto_family *ops);
++int most_sock_unregister(int proto);
++void most_sock_link(struct sock *s);
++void most_sock_unlink(struct sock *sk);
++
++int most_send_to_sock(int dev_id, struct sk_buff *skb);
++
++/* default implementation of socket operations */
++int most_sock_release(struct socket *sock);
++int most_sock_bind(struct socket *sock, int dev_id, u8 rx_chan, u8 tx_chan);
++int most_sock_ioctl(struct socket *sock, unsigned int cmd, unsigned long arg);
++int most_sock_recvmsg(struct kiocb *iocb, struct socket *sock,
++                              struct msghdr *msg, size_t len, int flags);
++int most_sock_sendmsg(struct kiocb *iocb, struct socket *sock,
++                          struct msghdr *msg, size_t len);
++int most_sock_setsockopt(struct socket *sock, int level, int optname,
++      char __user *optval, int len);
++int most_sock_getsockopt(struct socket *sock, int level, int optname,
++      char __user *optval, int __user *optlen);
++
++extern int dev_sock_init(void);
++extern void dev_sock_cleanup(void);
++
++#endif /* __MOST_H */
++
+diff -uNr linux-2.6.31/include/net/most/sync.h linux-2.6.31.new/include/net/most/sync.h
+--- linux-2.6.31/include/net/most/sync.h       1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/net/most/sync.h   2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,12 @@
++#ifndef __SYNC_H
++#define __SYNC_H
++
++struct sockaddr_mostsync {
++      sa_family_t    most_family;
++      unsigned short most_dev;
++      unsigned char  rx_channel;
++      unsigned char  tx_channel;
++};
++
++#endif
++
+diff -uNr linux-2.6.31/include/sound/timbi2s.h linux-2.6.31.new/include/sound/timbi2s.h
+--- linux-2.6.31/include/sound/timbi2s.h       1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/include/sound/timbi2s.h   2009-10-23 11:16:55.000000000 -0700
+@@ -0,0 +1,32 @@
++/*
++ * timbi2s.h timberdale FPGA I2S platform data
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++#ifndef __INCLUDE_SOUND_TIMBI2S_H
++#define __INCLUDE_SOUND_TIMBI2S_H
++
++struct timbi2s_bus_data {
++      u8      rx;
++      u16     sample_rate;
++};
++
++struct timbi2s_platform_data {
++      const struct timbi2s_bus_data   *busses;
++      int                             num_busses;
++      u32                             main_clk;
++};
++
++#endif
+diff -uNr linux-2.6.31/net/Kconfig linux-2.6.31.new/net/Kconfig
+--- linux-2.6.31/net/Kconfig   2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/net/Kconfig       2009-10-23 11:17:37.000000000 -0700
+@@ -235,6 +235,7 @@
+ source "net/irda/Kconfig"
+ source "net/bluetooth/Kconfig"
+ source "net/rxrpc/Kconfig"
++source "net/most/Kconfig"
+ config FIB_RULES
+       bool
+diff -uNr linux-2.6.31/net/Makefile linux-2.6.31.new/net/Makefile
+--- linux-2.6.31/net/Makefile  2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/net/Makefile      2009-10-23 11:17:36.000000000 -0700
+@@ -44,6 +44,7 @@
+ obj-$(CONFIG_DECNET)          += decnet/
+ obj-$(CONFIG_ECONET)          += econet/
+ obj-$(CONFIG_PHONET)          += phonet/
++obj-$(CONFIG_MOST)            += most/
+ ifneq ($(CONFIG_VLAN_8021Q),)
+ obj-y                         += 8021q/
+ endif
+diff -uNr linux-2.6.31/net/most/af_most.c linux-2.6.31.new/net/most/af_most.c
+--- linux-2.6.31/net/most/af_most.c    1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/af_most.c        2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,169 @@
++/*
++ * af_most.c Support for the MOST address family
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/module.h>
++#include <net/most/most.h>
++
++#define MOST_MAX_PROTO        4
++static struct net_proto_family *most_proto[MOST_MAX_PROTO];
++static DEFINE_RWLOCK(most_proto_lock);
++
++#ifdef CONFIG_DEBUG_LOCK_ALLOC
++static struct lock_class_key most_lock_key[MOST_MAX_PROTO];
++static const char *most_key_strings[MOST_MAX_PROTO] = {
++      "sk_lock-AF_MOST-MOSTPROTO_DEV",
++      "sk_lock-AF_MOST-MOSTPROTO_CTL",
++      "sk_lock-AF_MOST-MOSTPROTO_SYNC",
++      "sk_lock-AF_MOST-MOSTPROTO_ASYNC",
++};
++
++static struct lock_class_key most_slock_key[MOST_MAX_PROTO];
++static const char *most_slock_key_strings[MOST_MAX_PROTO] = {
++      "slock-AF_MOST-MOSTPROTO_DEV",
++      "slock-AF_MOST-MOSTPROTO_CTL",
++      "slock-AF_MOST-MOSTPROTO_SYNC",
++      "slock-AF_MOST-MOSTPROTO_ASYNC",
++};
++
++static inline void most_sock_reclassify_lock(struct socket *sock, int proto)
++{
++      struct sock *sk = sock->sk;
++
++      if (!sk)
++              return;
++
++      BUG_ON(sock_owned_by_user(sk));
++
++      sock_lock_init_class_and_name(sk,
++                      most_slock_key_strings[proto], &most_slock_key[proto],
++                              most_key_strings[proto], &most_lock_key[proto]);
++}
++#else
++static inline void most_sock_reclassify_lock(struct socket *sock, int proto)
++{
++}
++#endif
++
++
++int most_sock_register(int proto, struct net_proto_family *ops)
++{
++      int err = 0;
++
++      if (proto < 0 || proto >= MOST_MAX_PROTO)
++              return -EINVAL;
++
++      write_lock(&most_proto_lock);
++
++      if (most_proto[proto])
++              err = -EEXIST;
++      else
++              most_proto[proto] = ops;
++
++      write_unlock(&most_proto_lock);
++
++      return err;
++}
++EXPORT_SYMBOL(most_sock_register);
++
++int most_sock_unregister(int proto)
++{
++      int err = 0;
++
++      if (proto < 0 || proto >= MOST_MAX_PROTO)
++              return -EINVAL;
++
++      write_lock(&most_proto_lock);
++
++      if (!most_proto[proto])
++              err = -ENOENT;
++      else
++              most_proto[proto] = NULL;
++
++      write_unlock(&most_proto_lock);
++
++      return err;
++}
++EXPORT_SYMBOL(most_sock_unregister);
++
++static int most_sock_create(struct net *net, struct socket *sock, int proto)
++{
++      int err;
++
++      if (net != &init_net)
++              return -EAFNOSUPPORT;
++
++      if (proto < 0 || proto >= MOST_MAX_PROTO)
++              return -EINVAL;
++
++      if (!most_proto[proto])
++              request_module("most-proto-%d", proto);
++
++      err = -EPROTONOSUPPORT;
++
++      read_lock(&most_proto_lock);
++
++      if (most_proto[proto] && try_module_get(most_proto[proto]->owner)) {
++              err = most_proto[proto]->create(net, sock, proto);
++              most_sock_reclassify_lock(sock, proto);
++              module_put(most_proto[proto]->owner);
++      }
++
++      read_unlock(&most_proto_lock);
++
++      return err;
++}
++
++static struct net_proto_family most_sock_family_ops = {
++      .owner  = THIS_MODULE,
++      .family = PF_MOST,
++      .create = most_sock_create,
++};
++
++static int __init most_init(void)
++{
++      int err;
++
++      err = sock_register(&most_sock_family_ops);
++      if (err < 0)
++              return err;
++
++      err = dev_sock_init();
++      if (err < 0) {
++              sock_unregister(PF_MOST);
++              return err;
++      }
++
++      printk(KERN_INFO "MOST is initialized\n");
++
++      return 0;
++}
++
++static void __exit most_exit(void)
++{
++      dev_sock_cleanup();
++
++      sock_unregister(PF_MOST);
++}
++
++subsys_initcall(most_init);
++module_exit(most_exit);
++
++MODULE_DESCRIPTION("MOST Core");
++MODULE_LICENSE("GPL v2");
++MODULE_ALIAS_NETPROTO(PF_MOST);
++
+diff -uNr linux-2.6.31/net/most/async_sock.c linux-2.6.31.new/net/most/async_sock.c
+--- linux-2.6.31/net/most/async_sock.c 1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/async_sock.c     2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,154 @@
++/*
++ * async_sock.c MOST asyncronous socket support
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Support for MOST asynchronous sockets
++ */
++
++#include <linux/module.h>
++#include <net/most/most.h>
++#include <net/most/most_core.h>
++#include <net/most/async.h>
++
++static int async_sock_bind(struct socket *sock, struct sockaddr *addr,
++      int addr_len)
++{
++      struct sockaddr_mostasync *aaddr = (struct sockaddr_mostasync *)addr;
++
++      if (!aaddr || aaddr->most_family != AF_MOST)
++              return -EINVAL;
++
++      return most_sock_bind(sock, aaddr->most_dev, aaddr->rx_channel,
++              aaddr->tx_channel);
++}
++
++static int async_sock_getname(struct socket *sock, struct sockaddr *addr,
++      int *addr_len, int peer)
++{
++      struct sockaddr_mostasync *aaddr = (struct sockaddr_mostasync *)addr;
++      struct sock *sk = sock->sk;
++      struct most_dev *mdev = most_sk(sk)->mdev;
++
++      if (!mdev)
++              return -EBADFD;
++
++      lock_sock(sk);
++
++      *addr_len = sizeof(*aaddr);
++      aaddr->most_family      = AF_MOST;
++      aaddr->most_dev         = mdev->id;
++      aaddr->rx_channel       = most_sk(sk)->rx_channel;
++      aaddr->tx_channel       = most_sk(sk)->tx_channel;
++
++      release_sock(sk);
++      return 0;
++}
++
++
++static const struct proto_ops async_sock_ops = {
++      .family         = PF_MOST,
++      .owner          = THIS_MODULE,
++      .release        = most_sock_release,
++      .bind           = async_sock_bind,
++      .getname        = async_sock_getname,
++      .sendmsg        = most_sock_sendmsg,
++      .recvmsg        = most_sock_recvmsg,
++      .ioctl          = most_sock_ioctl,
++      .poll           = datagram_poll,
++      .listen         = sock_no_listen,
++      .shutdown       = sock_no_shutdown,
++      .setsockopt     = most_sock_setsockopt,
++      .getsockopt     = most_sock_getsockopt,
++      .connect        = sock_no_connect,
++      .socketpair     = sock_no_socketpair,
++      .accept         = sock_no_accept,
++      .mmap           = sock_no_mmap
++};
++static struct proto async_sk_proto = {
++      .name           = "ASYNC",
++      .owner          = THIS_MODULE,
++      .obj_size       = sizeof(struct most_sock)
++};
++
++static int async_sock_create(struct net *net, struct socket *sock, int protocol)
++{
++      struct sock *sk;
++
++      if (sock->type != SOCK_DGRAM)
++              return -ESOCKTNOSUPPORT;
++
++      sock->ops = &async_sock_ops;
++
++      sk = most_sk_alloc(net, &async_sk_proto, CHAN_ASYNC);
++      if (!sk)
++              return -ENOMEM;
++
++      sock_init_data(sock, sk);
++
++      sock_reset_flag(sk, SOCK_ZAPPED);
++
++      sk->sk_protocol = protocol;
++
++      sock->state = SS_UNCONNECTED;
++      sk->sk_state = MOST_OPEN;
++
++      most_sock_link(sk);
++      return 0;
++}
++
++static struct net_proto_family async_sock_family_ops = {
++      .family = PF_MOST,
++      .owner  = THIS_MODULE,
++      .create = async_sock_create,
++};
++
++
++static int __init async_init(void)
++{
++      int err;
++
++      err = proto_register(&async_sk_proto, 0);
++      if (err < 0)
++              return err;
++
++      err = most_sock_register(MOSTPROTO_ASYNC, &async_sock_family_ops);
++      if (err < 0) {
++              printk(KERN_ERR "MOST socket registration failed\n");
++              return err;
++      }
++
++      printk(KERN_INFO "MOST asynchronous socket layer initialized\n");
++
++      return 0;
++}
++
++static void __exit async_exit(void)
++{
++      if (most_sock_unregister(MOSTPROTO_ASYNC) < 0)
++              printk(KERN_ERR "ASYNC socket unregistration failed\n");
++
++      proto_unregister(&async_sk_proto);
++}
++
++module_init(async_init);
++module_exit(async_exit);
++
++MODULE_DESCRIPTION("Most Asyncronous");
++MODULE_LICENSE("GPL v2");
++MODULE_ALIAS("most-proto-3");
++
+diff -uNr linux-2.6.31/net/most/ctl_sock.c linux-2.6.31.new/net/most/ctl_sock.c
+--- linux-2.6.31/net/most/ctl_sock.c   1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/ctl_sock.c       2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,159 @@
++/*
++ * ctl_sock.c Support for MOST control sockets
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/module.h>
++#include <net/most/most.h>
++#include <net/most/most_core.h>
++#include <net/most/ctl.h>
++
++
++static int ctl_sock_bind(struct socket *sock, struct sockaddr *addr,
++      int addr_len)
++{
++      struct sockaddr_mostctl *caddr = (struct sockaddr_mostctl *) addr;
++
++      if (!caddr || caddr->most_family != AF_MOST)
++              return -EINVAL;
++
++      return most_sock_bind(sock, caddr->most_dev, caddr->rx_channel,
++              caddr->tx_channel);
++}
++
++static int ctl_sock_getname(struct socket *sock, struct sockaddr *addr,
++      int *addr_len, int peer)
++{
++      struct sockaddr_mostctl *caddr = (struct sockaddr_mostctl *) addr;
++      struct sock *sk = sock->sk;
++      struct most_dev *mdev = most_sk(sk)->mdev;
++
++      if (!mdev)
++              return -EBADFD;
++
++      lock_sock(sk);
++
++      *addr_len = sizeof(*caddr);
++      caddr->most_family      = AF_MOST;
++      caddr->most_dev         = mdev->id;
++      caddr->rx_channel       = most_sk(sk)->rx_channel;
++      caddr->tx_channel       = most_sk(sk)->tx_channel;
++
++      release_sock(sk);
++      return 0;
++}
++
++int ctl_sock_sendmsg(struct kiocb *iocb, struct socket *sock,
++                          struct msghdr *msg, size_t len)
++{
++      if (len != CTL_FRAME_SIZE)
++              return -EINVAL;
++
++      return most_sock_sendmsg(iocb, sock, msg, len);
++}
++
++static const struct proto_ops ctl_sock_ops = {
++      .family         = PF_MOST,
++      .owner          = THIS_MODULE,
++      .release        = most_sock_release,
++      .bind           = ctl_sock_bind,
++      .getname        = ctl_sock_getname,
++      .sendmsg        = most_sock_sendmsg,
++      .recvmsg        = most_sock_recvmsg,
++      .ioctl          = most_sock_ioctl,
++      .poll           = datagram_poll,
++      .listen         = sock_no_listen,
++      .shutdown       = sock_no_shutdown,
++      .setsockopt     = most_sock_setsockopt,
++      .getsockopt     = most_sock_getsockopt,
++      .connect        = sock_no_connect,
++      .socketpair     = sock_no_socketpair,
++      .accept         = sock_no_accept,
++      .mmap           = sock_no_mmap
++};
++static struct proto ctl_sk_proto = {
++      .name           = "CTL",
++      .owner          = THIS_MODULE,
++      .obj_size       = sizeof(struct most_sock)
++};
++
++static int ctl_sock_create(struct net *net, struct socket *sock, int protocol)
++{
++      struct sock *sk;
++
++      if (sock->type != SOCK_RAW)
++              return -ESOCKTNOSUPPORT;
++
++      sock->ops = &ctl_sock_ops;
++
++      sk = most_sk_alloc(net, &ctl_sk_proto, CHAN_CTL);
++      if (!sk)
++              return -ENOMEM;
++
++      sock_init_data(sock, sk);
++
++      sock_reset_flag(sk, SOCK_ZAPPED);
++
++      sk->sk_protocol = protocol;
++
++      sock->state = SS_UNCONNECTED;
++      sk->sk_state = MOST_OPEN;
++
++      most_sock_link(sk);
++      return 0;
++}
++
++static struct net_proto_family ctl_sock_family_ops = {
++      .family = PF_MOST,
++      .owner  = THIS_MODULE,
++      .create = ctl_sock_create,
++};
++
++
++static int __init ctl_init(void)
++{
++      int err;
++
++      err = proto_register(&ctl_sk_proto, 0);
++      if (err < 0)
++              return err;
++
++      err = most_sock_register(MOSTPROTO_CTL, &ctl_sock_family_ops);
++      if (err < 0) {
++              printk(KERN_ERR "MOST socket registration failed\n");
++              return err;
++      }
++
++      printk(KERN_INFO "MOST control socket layer initialized\n");
++
++      return 0;
++}
++
++static void __exit ctl_exit(void)
++{
++      if (most_sock_unregister(MOSTPROTO_CTL) < 0)
++              printk(KERN_ERR "Control socket unregistration failed\n");
++
++      proto_unregister(&ctl_sk_proto);
++}
++
++module_init(ctl_init);
++module_exit(ctl_exit);
++
++MODULE_DESCRIPTION("Most Control");
++MODULE_LICENSE("GPL v2");
++MODULE_ALIAS("most-proto-1");
++
+diff -uNr linux-2.6.31/net/most/dev_sock.c linux-2.6.31.new/net/most/dev_sock.c
+--- linux-2.6.31/net/most/dev_sock.c   1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/dev_sock.c       2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,170 @@
++/*
++ * dev_sock.c Device MOST sockets, to control the underlaying devices
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/module.h>
++#include <net/most/most.h>
++#include <net/most/most_core.h>
++#include <net/most/dev.h>
++
++/* Ioctls that require bound socket */
++static inline int dev_sock_bound_ioctl(struct sock *sk, unsigned int cmd,
++      unsigned long arg)
++{
++      return -ENOSYS;
++}
++
++static int dev_sock_ioctl(struct socket *sock, unsigned int cmd,
++      unsigned long arg)
++{
++      void __user *argp = (void __user *) arg;
++
++      switch (cmd) {
++      case MOSTDEVUP:
++              return most_open_dev(arg & 0xffff);
++      case MOSTDEVDOWN:
++              return most_close_dev(arg & 0xffff);
++      case MOSTGETDEVLIST:
++              return most_get_dev_list(argp);
++      default:
++              return -EINVAL;
++      }
++}
++
++static int dev_sock_bind(struct socket *sock, struct sockaddr *addr,
++      int addr_len)
++{
++      return -ENOSYS;
++}
++
++static int dev_sock_getname(struct socket *sock, struct sockaddr *addr,
++      int *addr_len, int peer)
++{
++      struct sockaddr_mostdev *daddr = (struct sockaddr_mostdev *) addr;
++      struct sock *sk = sock->sk;
++      struct most_dev *mdev = most_sk(sk)->mdev;
++
++      if (!mdev)
++              return -EBADFD;
++
++      lock_sock(sk);
++
++      *addr_len = sizeof(*daddr);
++      daddr->most_family      = AF_MOST;
++      daddr->most_dev         = mdev->id;
++
++      release_sock(sk);
++      return 0;
++}
++
++static int dev_sock_setsockopt(struct socket *sock, int level, int optname,
++      char __user *optval, int len)
++{
++      return -ENOSYS;
++}
++
++static int dev_sock_getsockopt(struct socket *sock, int level, int optname,
++      char __user *optval, int __user *optlen)
++{
++      return -ENOSYS;
++}
++
++static const struct proto_ops dev_sock_ops = {
++      .family         = PF_MOST,
++      .owner          = THIS_MODULE,
++      .release        = most_sock_release,
++      .bind           = dev_sock_bind,
++      .getname        = dev_sock_getname,
++      .sendmsg        = sock_no_sendmsg,
++      .recvmsg        = sock_no_recvmsg,
++      .ioctl          = dev_sock_ioctl,
++      .poll           = sock_no_poll,
++      .listen         = sock_no_listen,
++      .shutdown       = sock_no_shutdown,
++      .setsockopt     = dev_sock_setsockopt,
++      .getsockopt     = dev_sock_getsockopt,
++      .connect        = sock_no_connect,
++      .socketpair     = sock_no_socketpair,
++      .accept         = sock_no_accept,
++      .mmap           = sock_no_mmap
++};
++static struct proto dev_sk_proto = {
++      .name           = "DEV",
++      .owner          = THIS_MODULE,
++      .obj_size       = sizeof(struct most_sock)
++};
++
++static int dev_sock_create(struct net *net, struct socket *sock, int protocol)
++{
++      struct sock *sk;
++
++      if (sock->type != SOCK_RAW)
++              return -ESOCKTNOSUPPORT;
++
++      sock->ops = &dev_sock_ops;
++
++      sk = most_sk_alloc(net, &dev_sk_proto, CHAN_DEV);
++      if (!sk)
++              return -ENOMEM;
++
++      sock_init_data(sock, sk);
++
++      sock_reset_flag(sk, SOCK_ZAPPED);
++
++      sk->sk_protocol = protocol;
++
++      sock->state = SS_UNCONNECTED;
++      sk->sk_state = MOST_OPEN;
++
++      most_sock_link(sk);
++      return 0;
++}
++
++static struct net_proto_family dev_sock_family_ops = {
++      .family = PF_MOST,
++      .owner  = THIS_MODULE,
++      .create = dev_sock_create,
++};
++
++
++int __init dev_sock_init(void)
++{
++      int err;
++
++      err = proto_register(&dev_sk_proto, 0);
++      if (err < 0)
++              return err;
++
++      err = most_sock_register(MOSTPROTO_DEV, &dev_sock_family_ops);
++      if (err < 0) {
++              printk(KERN_ERR "MOST socket registration failed\n");
++              return err;
++      }
++
++      printk(KERN_INFO "MOST device socket layer initialized\n");
++
++      return 0;
++}
++
++void __exit dev_sock_cleanup(void)
++{
++      if (most_sock_unregister(MOSTPROTO_DEV) < 0)
++              printk(KERN_ERR "Device socket unregistration failed\n");
++
++      proto_unregister(&dev_sk_proto);
++}
++
+diff -uNr linux-2.6.31/net/most/Kconfig linux-2.6.31.new/net/most/Kconfig
+--- linux-2.6.31/net/most/Kconfig      1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/Kconfig  2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,38 @@
++#
++# Media Oriented Systems Transport (MOST) network layer core configuration
++#
++
++menuconfig MOST
++      depends on NET
++      tristate "MOST bus subsystem support"
++      ---help---
++        Media Oriented Systems Transport (MOST) is a multimedia
++        communications protocol in the automotive industry.
++
++        If you want MOST support you should say Y here.
++
++config MOST_CTL
++      tristate "Support for Control data over MOST"
++      depends on MOST
++      default N
++      ---help---
++        Support for the control channel of the MOST bus.
++
++config MOST_ASYNC
++      tristate "Support for Asynchronous data over MOST"
++      depends on MOST
++      default N
++      ---help---
++        Support for the asyncronous channel of the MOST bus. Normally
++        used for software download od file transfers.
++
++config MOST_SYNC
++      tristate "Support for Synchronous data over MOST"
++      depends on MOST
++      default N
++      ---help---
++        Support for synchronous channles of the MOST bus. Normally used
++        for streaming media such as audio and video.
++
++
++source "drivers/net/most/Kconfig"
+diff -uNr linux-2.6.31/net/most/Makefile linux-2.6.31.new/net/most/Makefile
+--- linux-2.6.31/net/most/Makefile     1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/Makefile 2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,15 @@
++#
++#  Makefile for the Linux Media Oriented Systems Transport core.
++#
++
++obj-$(CONFIG_MOST)    += most.o
++most-objs             := af_most.o most_core.o most_sock.o dev_sock.o
++
++obj-$(CONFIG_MOST_CTL) += ctl.o
++ctl-objs              := ctl_sock.o
++
++obj-$(CONFIG_MOST_SYNC) += sync.o
++sync-objs             := sync_sock.o
++
++obj-$(CONFIG_MOST_ASYNC) += async.o
++async-objs            := async_sock.o
+diff -uNr linux-2.6.31/net/most/most_core.c linux-2.6.31.new/net/most/most_core.c
+--- linux-2.6.31/net/most/most_core.c  1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/most_core.c      2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,287 @@
++/*
++ * most_core.c The MOST core functions
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/kernel.h>
++#include <linux/slab.h>
++#include <linux/module.h>
++
++#include <net/most/most_core.h>
++#include <net/most/dev.h>
++
++/* MOST device list */
++LIST_HEAD(most_dev_list);
++DEFINE_RWLOCK(most_dev_list_lock);
++
++
++int most_open_dev(u16 dev_id)
++{
++      struct most_dev *mdev = most_dev_get(dev_id);
++      int err = 0;
++
++      if (!mdev)
++              return -ENODEV;
++
++      most_dbg("%s: %s, state: %d\n", __func__, mdev->name, mdev->state);
++
++      if (mdev->state == MOST_DEV_UP)
++              err = -EALREADY;
++
++      if (!err)
++              err = mdev->open(mdev);
++      if (!err)
++              mdev->state = MOST_DEV_UP;
++
++      most_dev_put(mdev);
++      most_dbg("%s: %s, state: %d, err: %d\n", __func__,
++              mdev->name, mdev->state, err);
++      return err;
++}
++
++static int __most_close_dev(struct most_dev *mdev)
++{
++      int err = 0;
++
++      most_dbg("%s: %s, state: %d\n", __func__, mdev ? mdev->name : "nil",
++              mdev ? mdev->state : -1);
++
++      if (!mdev)
++              return -ENODEV;
++
++      if (mdev->state == MOST_DEV_DOWN)
++              err = -EALREADY;
++
++      if (!err)
++              err = mdev->close(mdev);
++      if (!err)
++              mdev->state = MOST_DEV_DOWN;
++
++      most_dev_put(mdev);
++      most_dbg("%s: %s, state: %d, err: %d\n", __func__,
++              mdev->name, mdev->state, err);
++      return err;
++}
++
++int most_close_dev(u16 dev_id)
++{
++      return __most_close_dev(most_dev_get(dev_id));
++}
++
++int most_get_dev_list(void __user *arg)
++{
++      struct most_dev_list_req *dl;
++      struct most_dev_req *dr;
++      struct list_head *p;
++      int n = 0, size, err;
++      u16 dev_num;
++
++      if (get_user(dev_num, (u16 __user *) arg))
++              return -EFAULT;
++
++      if (!dev_num || dev_num > (PAGE_SIZE * 2) / sizeof(*dr))
++              return -EINVAL;
++
++      size = sizeof(*dl) + dev_num * sizeof(*dr);
++
++      dl = kzalloc(size, GFP_KERNEL);
++      if (!dl)
++              return -ENOMEM;
++
++      dr = dl->dev_req;
++
++      read_lock_bh(&most_dev_list_lock);
++      list_for_each(p, &most_dev_list) {
++              struct most_dev *mdev;
++              mdev = list_entry(p, struct most_dev, list);
++              (dr + n)->dev_id  = mdev->id;
++              if (++n >= dev_num)
++                      break;
++      }
++      read_unlock_bh(&most_dev_list_lock);
++
++      dl->dev_num = n;
++      size = sizeof(*dl) + n * sizeof(*dr);
++
++      err = copy_to_user(arg, dl, size);
++      kfree(dl);
++
++      return err ? -EFAULT : 0;
++}
++
++static int most_send_frame(struct sk_buff *skb)
++{
++      struct most_dev *mdev = (struct most_dev *) skb->dev;
++
++      if (!mdev) {
++              kfree_skb(skb);
++              return -ENODEV;
++      }
++
++      most_dbg("%s: %s type %d len %d\n", __func__, mdev->name,
++              most_cb(skb)->channel_type, skb->len);
++
++      /* Get rid of skb owner, prior to sending to the driver. */
++      skb_orphan(skb);
++
++      return mdev->send(skb);
++}
++
++static void most_send_queue(struct sk_buff_head *q)
++{
++      struct sk_buff *skb;
++
++      while ((skb = skb_dequeue(q))) {
++              struct most_dev *mdev = (struct most_dev *)skb->dev;
++
++              most_dbg("%s: skb %p len %d\n", __func__, skb, skb->len);
++
++              if (!mdev->can_send || mdev->can_send(skb))
++                      most_send_frame(skb);
++              else {
++                      most_dbg("%s, could not send frame, requeueing\n",
++                              __func__);
++                      skb_queue_tail(q, skb);
++                      break;
++              }
++      }
++}
++
++static void most_tx_task(unsigned long arg)
++{
++      struct most_dev *mdev = (struct most_dev *) arg;
++
++      most_dbg("%s: %s\n", __func__, mdev->name);
++
++      most_send_queue(&mdev->ctl_q);
++      most_send_queue(&mdev->sync_q);
++      most_send_queue(&mdev->async_q);
++}
++
++static void most_rx_task(unsigned long arg)
++{
++      struct most_dev *mdev = (struct most_dev *) arg;
++      struct sk_buff *skb = skb_dequeue(&mdev->rx_q);
++
++      most_dbg("%s: %s\n", __func__, mdev->name);
++
++      while (skb) {
++              /* Send to the sockets */
++              most_send_to_sock(mdev->id, skb);
++              kfree_skb(skb);
++              skb = skb_dequeue(&mdev->rx_q);
++      }
++}
++
++
++/* Get MOST device by index.
++ * Device is held on return. */
++struct most_dev *most_dev_get(int index)
++{
++      struct most_dev *mdev = NULL;
++      struct list_head *p;
++
++      if (index < 0)
++              return NULL;
++
++      read_lock(&most_dev_list_lock);
++      list_for_each(p, &most_dev_list) {
++              struct most_dev *d = list_entry(p, struct most_dev, list);
++              if (d->id == index) {
++                      mdev = most_dev_hold(d);
++                      break;
++              }
++      }
++      read_unlock(&most_dev_list_lock);
++      return mdev;
++}
++EXPORT_SYMBOL(most_dev_get);
++
++
++/* Alloc MOST device */
++struct most_dev *most_alloc_dev(void)
++{
++      struct most_dev *mdev;
++
++      mdev = kzalloc(sizeof(struct most_dev), GFP_KERNEL);
++      if (!mdev)
++              return NULL;
++
++      mdev->state = MOST_DEV_DOWN;
++
++      return mdev;
++}
++EXPORT_SYMBOL(most_alloc_dev);
++
++
++void most_free_dev(struct most_dev *mdev)
++{
++      kfree(mdev);
++}
++EXPORT_SYMBOL(most_free_dev);
++
++
++/* Register MOST device */
++int most_register_dev(struct most_dev *mdev)
++{
++      struct list_head *head = &most_dev_list, *p;
++      int id = 0;
++
++      if (!mdev->open || !mdev->close || !mdev->send || !mdev->owner)
++              return -EINVAL;
++
++      write_lock_bh(&most_dev_list_lock);
++
++      /* Find first available device id */
++      list_for_each(p, &most_dev_list) {
++              if (list_entry(p, struct most_dev, list)->id != id)
++                      break;
++              head = p; id++;
++      }
++
++      sprintf(mdev->name, "most%d", id);
++      mdev->id = id;
++      list_add(&mdev->list, head);
++
++      tasklet_init(&mdev->rx_task, most_rx_task, (unsigned long) mdev);
++      tasklet_init(&mdev->tx_task, most_tx_task, (unsigned long) mdev);
++
++      skb_queue_head_init(&mdev->rx_q);
++      skb_queue_head_init(&mdev->ctl_q);
++      skb_queue_head_init(&mdev->sync_q);
++      skb_queue_head_init(&mdev->async_q);
++
++      write_unlock_bh(&most_dev_list_lock);
++      return 0;
++}
++EXPORT_SYMBOL(most_register_dev);
++
++int most_unregister_dev(struct most_dev *mdev)
++{
++      int ret = 0;
++      most_dbg("%s: %s: state: %d\n", __func__, mdev->name, mdev->state);
++
++      if (mdev->state != MOST_DEV_DOWN)
++              ret = __most_close_dev(mdev);
++
++      write_lock_bh(&most_dev_list_lock);
++      list_del(&mdev->list);
++      write_unlock_bh(&most_dev_list_lock);
++
++      return ret;
++}
++EXPORT_SYMBOL(most_unregister_dev);
++
+diff -uNr linux-2.6.31/net/most/most_sock.c linux-2.6.31.new/net/most/most_sock.c
+--- linux-2.6.31/net/most/most_sock.c  1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/most_sock.c      2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,315 @@
++/*
++ * most_sock.c Generic functions for MOST sockets
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/module.h>
++#include <net/most/most_core.h>
++
++static struct most_sock_list most_sk_list = {
++      .lock = __RW_LOCK_UNLOCKED(ctl_sk_list.lock)
++};
++
++void most_sock_link(struct sock *sk)
++{
++      write_lock_bh(&most_sk_list.lock);
++      sk_add_node(sk, &most_sk_list.head);
++      write_unlock_bh(&most_sk_list.lock);
++}
++EXPORT_SYMBOL(most_sock_link);
++
++void most_sock_unlink(struct sock *sk)
++{
++      write_lock_bh(&most_sk_list.lock);
++      sk_del_node_init(sk);
++      write_unlock_bh(&most_sk_list.lock);
++}
++EXPORT_SYMBOL(most_sock_unlink);
++
++static int channel_in_use(int dev_id, u8 channel)
++{
++      struct sock *sk;
++      struct hlist_node *node;
++
++      read_lock_bh(&most_sk_list.lock);
++
++      sk_for_each(sk, node, &most_sk_list.head)
++              if (most_sk(sk)->dev_id == dev_id &&
++                      sk->sk_state == MOST_BOUND &&
++                      (most_sk(sk)->rx_channel == channel ||
++                       most_sk(sk)->tx_channel == channel))
++                      goto found;
++
++      sk = NULL;
++found:
++      read_unlock_bh(&most_sk_list.lock);
++
++      return sk != NULL;
++}
++
++int most_send_to_sock(int dev_id, struct sk_buff *skb)
++{
++      struct sock *sk;
++      struct hlist_node *node;
++
++      read_lock(&most_sk_list.lock);
++      sk_for_each(sk, node, &most_sk_list.head) {
++              if (most_sk(sk)->dev_id == dev_id &&
++                      most_sk(sk)->channel_type == most_cb(skb)->channel_type
++                      && most_sk(sk)->rx_channel == most_cb(skb)->channel &&
++                      sk->sk_state == MOST_BOUND) {
++
++                      struct sk_buff *nskb = skb_clone(skb, GFP_ATOMIC);
++                      if (nskb)
++                              if (sock_queue_rcv_skb(sk, nskb))
++                                      kfree_skb(nskb);
++              }
++
++      }
++      read_unlock(&most_sk_list.lock);
++
++      return 0;
++}
++EXPORT_SYMBOL(most_send_to_sock);
++
++int most_sock_release(struct socket *sock)
++{
++      struct sock *sk = sock->sk;
++      struct most_dev *mdev;
++
++      most_dbg("%s: sock %p sk %p\n", __func__, sock, sk);
++
++      if (!sk)
++              return 0;
++
++      mdev = most_sk(sk)->mdev;
++
++      most_sock_unlink(sk);
++
++      if (mdev) {
++              if (sk->sk_state == MOST_BOUND)
++                      most_configure_channels(mdev, most_sk(sk), 0);
++
++              most_dev_put(mdev);
++      }
++
++      sock_orphan(sk);
++      sock_put(sk);
++      return 0;
++}
++EXPORT_SYMBOL(most_sock_release);
++
++int most_sock_bind(struct socket *sock, int dev_id, u8 rx_chan, u8 tx_chan)
++{
++      struct sock *sk = sock->sk;
++      struct most_dev *mdev = NULL;
++      int err = 0;
++
++      most_dbg("%s: sock %p sk %p, rx: %d, tx: %d\n",
++              __func__, sock, sk, rx_chan, tx_chan);
++
++      lock_sock(sk);
++
++      if (sk->sk_state != MOST_OPEN) {
++              err = -EBADFD;
++              goto done;
++      }
++
++      if (most_sk(sk)->mdev) {
++              err = -EALREADY;
++              goto done;
++      }
++
++      if (channel_in_use(dev_id, rx_chan) ||
++              channel_in_use(dev_id, tx_chan)) {
++              err = -EADDRINUSE;
++              goto done;
++      } else {
++              most_sk(sk)->rx_channel = rx_chan;
++              most_sk(sk)->tx_channel = tx_chan;
++      }
++
++      mdev = most_dev_get(dev_id);
++      if (!mdev) {
++              err = -ENODEV;
++              goto done;
++      }
++
++      err = most_configure_channels(mdev, most_sk(sk), 1);
++      if (err) {
++              most_dev_put(mdev);
++              goto done;
++      }
++
++      most_sk(sk)->mdev = mdev;
++      most_sk(sk)->dev_id = mdev->id;
++
++      sk->sk_state = MOST_BOUND;
++
++done:
++      release_sock(sk);
++      return err;
++}
++EXPORT_SYMBOL(most_sock_bind);
++
++
++int most_sock_ioctl(struct socket *sock, unsigned int cmd, unsigned long arg)
++{
++      most_dbg("%s\n", __func__);
++      return -EINVAL;
++}
++EXPORT_SYMBOL(most_sock_ioctl);
++
++int most_sock_recvmsg(struct kiocb *iocb, struct socket *sock,
++                              struct msghdr *msg, size_t len, int flags)
++{
++      int noblock = flags & MSG_DONTWAIT;
++      struct sock *sk = sock->sk;
++      struct sk_buff *skb;
++      int copied, err;
++
++      most_dbg("%s\n", __func__);
++
++      if (most_sk(sk)->rx_channel == MOST_NO_CHANNEL)
++              return -EOPNOTSUPP;
++
++      if (flags & (MSG_OOB))
++              return -EOPNOTSUPP;
++
++      if (sk->sk_state != MOST_BOUND)
++              return 0;
++
++      skb = skb_recv_datagram(sk, flags, noblock, &err);
++      if (!skb)
++              return err;
++
++      msg->msg_namelen = 0;
++
++      copied = skb->len;
++      if (len < copied) {
++              msg->msg_flags |= MSG_TRUNC;
++              copied = len;
++      }
++
++      skb_reset_transport_header(skb);
++      err = skb_copy_datagram_iovec(skb, 0, msg->msg_iov, copied);
++
++      skb_free_datagram(sk, skb);
++
++      return err ? : copied;
++}
++EXPORT_SYMBOL(most_sock_recvmsg);
++
++int most_sock_sendmsg(struct kiocb *iocb, struct socket *sock,
++                          struct msghdr *msg, size_t len)
++{
++      struct sock *sk = sock->sk;
++      struct most_dev *mdev;
++      struct sk_buff *skb;
++      int err;
++
++      most_dbg("%s: sock %p sk %p, channeltype: %d\n",
++              __func__, sock, sk, most_sk(sk)->channel_type);
++
++      if (most_sk(sk)->tx_channel == MOST_NO_CHANNEL)
++              return -EOPNOTSUPP;
++
++      if (msg->msg_flags & MSG_OOB)
++              return -EOPNOTSUPP;
++
++      if (msg->msg_flags & ~(MSG_DONTWAIT|MSG_NOSIGNAL|MSG_ERRQUEUE))
++              return -EINVAL;
++
++      lock_sock(sk);
++
++      mdev = most_sk(sk)->mdev;
++      if (!mdev) {
++              err = -EBADFD;
++              goto done;
++      }
++
++      skb = sock_alloc_send_skb(sk, len, msg->msg_flags & MSG_DONTWAIT, &err);
++      if (!skb)
++              goto done;
++
++      most_cb(skb)->channel = most_sk(sk)->tx_channel;
++      most_cb(skb)->channel_type = most_sk(sk)->channel_type;
++
++      if (memcpy_fromiovec(skb_put(skb, len), msg->msg_iov, len)) {
++              err = -EFAULT;
++              goto drop;
++      }
++
++      skb->dev = (void *) mdev;
++
++      skb_queue_tail(&mdev->ctl_q, skb);
++      most_sched_tx(mdev);
++
++      err = len;
++
++done:
++      release_sock(sk);
++      return err;
++
++drop:
++      kfree_skb(skb);
++      goto done;
++}
++EXPORT_SYMBOL(most_sock_sendmsg);
++
++int most_sock_setsockopt(struct socket *sock, int level, int optname,
++      char __user *optval, int len)
++{
++      struct sock *sk = sock->sk;
++      int err = 0;
++
++      most_dbg("%s: sk %p", __func__, sk);
++
++      lock_sock(sk);
++
++      switch (optname) {
++      default:
++              err = -ENOPROTOOPT;
++              break;
++      }
++
++      release_sock(sk);
++      return err;
++}
++EXPORT_SYMBOL(most_sock_setsockopt);
++
++
++int most_sock_getsockopt(struct socket *sock, int level, int optname,
++      char __user *optval, int __user *optlen)
++{
++      struct sock *sk = sock->sk;
++      int err = 0;
++
++      most_dbg("%s: sk %p", __func__, sk);
++
++      lock_sock(sk);
++
++      switch (optname) {
++      default:
++              err = -ENOPROTOOPT;
++              break;
++      }
++
++      release_sock(sk);
++      return err;
++}
++EXPORT_SYMBOL(most_sock_getsockopt);
++
+diff -uNr linux-2.6.31/net/most/sync_sock.c linux-2.6.31.new/net/most/sync_sock.c
+--- linux-2.6.31/net/most/sync_sock.c  1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/net/most/sync_sock.c      2009-10-23 11:17:37.000000000 -0700
+@@ -0,0 +1,150 @@
++/*
++ * sync_sock.c Support for MOST synchronous sockets
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#include <linux/module.h>
++#include <net/most/most.h>
++#include <net/most/most_core.h>
++#include <net/most/sync.h>
++
++static int sync_sock_bind(struct socket *sock, struct sockaddr *addr,
++      int addr_len)
++{
++      struct sockaddr_mostsync *saddr = (struct sockaddr_mostsync *)addr;
++
++      if (!saddr || saddr->most_family != AF_MOST)
++              return -EINVAL;
++
++      return most_sock_bind(sock, saddr->most_dev, saddr->rx_channel,
++              saddr->tx_channel);
++}
++
++static int sync_sock_getname(struct socket *sock, struct sockaddr *addr,
++      int *addr_len, int peer)
++{
++      struct sockaddr_mostsync *saddr = (struct sockaddr_mostsync *)addr;
++      struct sock *sk = sock->sk;
++      struct most_dev *mdev = most_sk(sk)->mdev;
++
++      if (!mdev)
++              return -EBADFD;
++
++      lock_sock(sk);
++
++      *addr_len = sizeof(*saddr);
++      saddr->most_family      = AF_MOST;
++      saddr->most_dev         = mdev->id;
++      saddr->rx_channel       = most_sk(sk)->rx_channel;
++      saddr->tx_channel       = most_sk(sk)->tx_channel;
++
++      release_sock(sk);
++      return 0;
++}
++
++
++static const struct proto_ops sync_sock_ops = {
++      .family         = PF_MOST,
++      .owner          = THIS_MODULE,
++      .release        = most_sock_release,
++      .bind           = sync_sock_bind,
++      .getname        = sync_sock_getname,
++      .sendmsg        = most_sock_sendmsg,
++      .recvmsg        = most_sock_recvmsg,
++      .ioctl          = most_sock_ioctl,
++      .poll           = datagram_poll,
++      .listen         = sock_no_listen,
++      .shutdown       = sock_no_shutdown,
++      .setsockopt     = most_sock_setsockopt,
++      .getsockopt     = most_sock_getsockopt,
++      .connect        = sock_no_connect,
++      .socketpair     = sock_no_socketpair,
++      .accept         = sock_no_accept,
++      .mmap           = sock_no_mmap
++};
++static struct proto sync_sk_proto = {
++      .name           = "SYNC",
++      .owner          = THIS_MODULE,
++      .obj_size       = sizeof(struct most_sock)
++};
++
++static int sync_sock_create(struct net *net, struct socket *sock, int protocol)
++{
++      struct sock *sk;
++
++      if (sock->type != SOCK_STREAM)
++              return -ESOCKTNOSUPPORT;
++
++      sock->ops = &sync_sock_ops;
++
++      sk = most_sk_alloc(net, &sync_sk_proto, CHAN_SYNC);
++      if (!sk)
++              return -ENOMEM;
++
++      sock_init_data(sock, sk);
++
++      sock_reset_flag(sk, SOCK_ZAPPED);
++
++      sk->sk_protocol = protocol;
++
++      sock->state = SS_UNCONNECTED;
++      sk->sk_state = MOST_OPEN;
++
++      most_sock_link(sk);
++      return 0;
++}
++
++static struct net_proto_family sync_sock_family_ops = {
++      .family = PF_MOST,
++      .owner  = THIS_MODULE,
++      .create = sync_sock_create,
++};
++
++
++static int __init sync_init(void)
++{
++      int err;
++
++      err = proto_register(&sync_sk_proto, 0);
++      if (err < 0)
++              return err;
++
++      err = most_sock_register(MOSTPROTO_SYNC, &sync_sock_family_ops);
++      if (err < 0) {
++              printk(KERN_ERR "MOST socket registration failed\n");
++              return err;
++      }
++
++      printk(KERN_INFO "MOST synchronous socket layer initialized\n");
++
++      return 0;
++}
++
++static void __exit sync_exit(void)
++{
++      if (most_sock_unregister(MOSTPROTO_SYNC) < 0)
++              printk(KERN_ERR "SYNC socket unregistration failed\n");
++
++      proto_unregister(&sync_sk_proto);
++}
++
++module_init(sync_init);
++module_exit(sync_exit);
++
++MODULE_DESCRIPTION("Most Syncronous");
++MODULE_LICENSE("GPL v2");
++MODULE_ALIAS("most-proto-2");
++
+diff -uNr linux-2.6.31/sound/drivers/Kconfig linux-2.6.31.new/sound/drivers/Kconfig
+--- linux-2.6.31/sound/drivers/Kconfig 2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/sound/drivers/Kconfig     2009-10-23 11:16:57.000000000 -0700
+@@ -182,4 +182,17 @@
+         The default time-out value in seconds for AC97 automatic
+         power-save mode.  0 means to disable the power-save mode.
++config SND_TIMBERDALE_I2S
++      tristate "The timberdale FPGA I2S driver"
++      depends on MFD_TIMBERDALE && HAS_IOMEM
++      default y
++      help
++        Say Y here to enable driver for the I2S block found within the
++        Timberdale FPGA.
++        There is support for up to 8 I2S channels, in either transmitter
++        or receiver mode.
++
++        To compile this driver as a module, choose M here: the module
++        will be called snd-timbi2s.
++
+ endif # SND_DRIVERS
+diff -uNr linux-2.6.31/sound/drivers/Makefile linux-2.6.31.new/sound/drivers/Makefile
+--- linux-2.6.31/sound/drivers/Makefile        2009-10-23 11:18:30.000000000 -0700
++++ linux-2.6.31.new/sound/drivers/Makefile    2009-10-23 11:16:57.000000000 -0700
+@@ -10,6 +10,7 @@
+ snd-serial-u16550-objs := serial-u16550.o
+ snd-virmidi-objs := virmidi.o
+ snd-ml403-ac97cr-objs := ml403-ac97cr.o pcm-indirect2.o
++snd-timbi2s-objs := timbi2s.o
+ # Toplevel Module Dependency
+ obj-$(CONFIG_SND_DUMMY) += snd-dummy.o
+@@ -19,5 +20,6 @@
+ obj-$(CONFIG_SND_MTS64) += snd-mts64.o
+ obj-$(CONFIG_SND_PORTMAN2X4) += snd-portman2x4.o
+ obj-$(CONFIG_SND_ML403_AC97CR) += snd-ml403-ac97cr.o
++obj-$(CONFIG_SND_TIMBERDALE_I2S) += snd-timbi2s.o
+ obj-$(CONFIG_SND) += opl3/ opl4/ mpu401/ vx/ pcsp/
+diff -uNr linux-2.6.31/sound/drivers/timbi2s.c linux-2.6.31.new/sound/drivers/timbi2s.c
+--- linux-2.6.31/sound/drivers/timbi2s.c       1969-12-31 16:00:00.000000000 -0800
++++ linux-2.6.31.new/sound/drivers/timbi2s.c   2009-10-23 11:16:57.000000000 -0700
+@@ -0,0 +1,755 @@
++/*
++ * timbi2s.c timberdale FPGA I2S driver
++ * Copyright (c) 2009 Intel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++/* Supports:
++ * Timberdale FPGA I2S
++ *
++ */
++
++#include <linux/io.h>
++#include <linux/interrupt.h>
++#include <linux/platform_device.h>
++#include <sound/core.h>
++#include <sound/pcm.h>
++#include <sound/pcm_params.h>
++#include <sound/initval.h>
++#include <sound/timbi2s.h>
++
++#define DRIVER_NAME "timb-i2s"
++
++#define MAX_BUSSES    8
++
++#define TIMBI2S_REG_VER       0x00
++#define TIMBI2S_REG_UIR       0x04
++
++#define TIMBI2S_BUS_PRESCALE  0x00
++#define TIMBI2S_BUS_ICLR      0x04
++#define TIMBI2S_BUS_IPR               0x08
++#define TIMBI2S_BUS_ISR               0x0c
++#define TIMBI2S_BUS_IER               0x10
++
++
++#define TIMBI2S_IRQ_TX_FULL           0x01
++#define TIMBI2S_IRQ_TX_ALMOST_FULL    0x02
++#define TIMBI2S_IRQ_TX_ALMOST_EMPTY   0x04
++#define TIMBI2S_IRQ_TX_EMPTY          0x08
++
++#define TIMBI2S_IRQ_RX_FULL           0x10
++#define TIMBI2S_IRQ_RX_ALMOST_FULL    0x20
++#define TIMBI2S_IRQ_RX_ALMOST_EMPTY   0x40
++#define TIMBI2S_IRQ_RX_NOT_EMPTY      0x80
++
++#define TIMBI2S_BUS_ICOR      0x14
++#define TIMBI2S_ICOR_TX_ENABLE        0x00000001
++#define TIMBI2S_ICOR_RX_ENABLE        0x00000002
++#define TIMBI2S_ICOR_LFIFO_RST        0x00000004
++#define TIMBI2S_ICOR_RFIFO_RST        0x00000008
++#define TIMBI2S_ICOR_FIFO_RST (TIMBI2S_ICOR_LFIFO_RST | TIMBI2S_ICOR_RFIFO_RST)
++#define TIMBI2S_ICOR_SOFT_RST 0x00000010
++#define TIMBI2S_ICOR_WORD_SEL_LEFT_SHIFT      8
++#define TIMBI2S_ICOR_WORD_SEL_LEFT_MASK               (0xff << 8)
++#define TIMBI2S_ICOR_WORD_SEL_RIGHT_SHIFT     16
++#define TIMBI2S_ICOR_WORD_SEL_RIGHT_MASK      (0xff << 16)
++#define TIMBI2S_ICOR_CLK_MASTER       0x10000000
++#define TIMBI2S_ICOR_RX_ID    0x20000000
++#define TIMBI2S_ICOR_TX_ID    0x40000000
++#define TIMBI2S_ICOR_WORD_SEL 0x80000000
++#define TIMBI2S_BUS_FIFO      0x18
++
++#define TIMBI2S_BUS_REG_AREA_SIZE     (TIMBI2S_BUS_FIFO - \
++      TIMBI2S_BUS_PRESCALE + 4)
++#define TIMBI2S_FIRST_BUS_AREA_OFS    0x08
++
++struct timbi2s_bus {
++      u32 flags;
++      u32 prescale;
++      struct snd_pcm  *pcm;
++      struct snd_card *card;
++      struct snd_pcm_substream *substream;
++      unsigned        buf_pos;
++      spinlock_t      lock; /* mutual exclusion */
++      u16             sample_rate;
++};
++
++#define BUS_RX                0x200
++#define BUS_MASTER    0x100
++#define BUS_INDEX_MASK        0xff
++#define BUS_INDEX(b) ((b)->flags & BUS_INDEX_MASK)
++#define BUS_IS_MASTER(b) ((b)->flags & BUS_MASTER)
++#define BUS_IS_RX(b) ((b)->flags & BUS_RX)
++
++#define SET_BUS_INDEX(b, id) ((b)->flags = ((b)->flags & ~BUS_INDEX_MASK) | id)
++#define SET_BUS_MASTER(b) ((b)->flags |= BUS_MASTER)
++#define SET_BUS_RX(b) ((b)->flags |= BUS_RX)
++
++#define TIMBI2S_BUS_OFFSET(bus) (TIMBI2S_FIRST_BUS_AREA_OFS + \
++      TIMBI2S_BUS_REG_AREA_SIZE * BUS_INDEX(bus))
++
++struct timbi2s {
++      void __iomem *membase;
++      int irq;
++      struct tasklet_struct   tasklet;
++      u32 main_clk;
++      unsigned num_busses;
++      struct timbi2s_bus busses[0];
++};
++
++#define BITS_PER_CHANNEL      16
++#define NUM_CHANNELS          2
++
++#define SAMPLE_SIZE   ((NUM_CHANNELS * BITS_PER_CHANNEL) / 8)
++#define NUM_PERIODS   32
++#define NUM_SAMPLES   256
++
++static struct snd_pcm_hardware timbi2s_rx_hw = {
++      .info                   = (SNDRV_PCM_INFO_MMAP
++                                | SNDRV_PCM_INFO_MMAP_VALID
++                                | SNDRV_PCM_INFO_INTERLEAVED),
++      .formats                = SNDRV_PCM_FMTBIT_S16_LE,
++      .rates                  = SNDRV_PCM_RATE_44100,
++      .rate_min               = 44100,
++      .rate_max               = 44100,
++      .channels_min           = 2, /* only stereo */
++      .channels_max           = 2,
++      .buffer_bytes_max       = NUM_PERIODS * SAMPLE_SIZE * NUM_SAMPLES,
++      .period_bytes_min       = SAMPLE_SIZE * NUM_SAMPLES,
++      .period_bytes_max       = SAMPLE_SIZE * NUM_SAMPLES,
++      .periods_min            = NUM_PERIODS,
++      .periods_max            = NUM_PERIODS,
++};
++
++static struct snd_pcm_hardware timbi2s_tx_hw = {
++      .info                   = (SNDRV_PCM_INFO_MMAP
++                                | SNDRV_PCM_INFO_MMAP_VALID
++                                | SNDRV_PCM_INFO_INTERLEAVED),
++      .formats                = SNDRV_PCM_FMTBIT_S16_LE,
++      .rates                  = SNDRV_PCM_RATE_8000,
++      .rate_min               = 8000,
++      .rate_max               = 8000,
++      .channels_min           = 2, /* only stereo */
++      .channels_max           = 2,
++      .buffer_bytes_max       = NUM_PERIODS * SAMPLE_SIZE * NUM_SAMPLES,
++      .period_bytes_min       = SAMPLE_SIZE * NUM_SAMPLES,
++      .period_bytes_max       = SAMPLE_SIZE * NUM_SAMPLES,
++      .periods_min            = NUM_PERIODS,
++      .periods_max            = NUM_PERIODS,
++};
++
++static inline void timbi2s_bus_write(struct timbi2s_bus *bus, u32 val, u32 reg)
++{
++      struct timbi2s *i2s = snd_pcm_chip(bus->card);
++
++      iowrite32(val, i2s->membase + TIMBI2S_BUS_OFFSET(bus) + reg);
++}
++
++static inline u32 timbi2s_bus_read(struct timbi2s_bus *bus, u32 reg)
++{
++      struct timbi2s *i2s = snd_pcm_chip(bus->card);
++
++      return ioread32(i2s->membase + TIMBI2S_BUS_OFFSET(bus) + reg);
++}
++
++static u32 timbi2s_calc_prescale(u32 main_clk, u32 sample_rate)
++{
++      u32 halfbit_rate = sample_rate * BITS_PER_CHANNEL * NUM_CHANNELS * 2;
++      return main_clk / halfbit_rate;
++}
++
++static int timbi2s_open(struct snd_pcm_substream *substream)
++{
++      struct timbi2s_bus *bus = snd_pcm_substream_chip(substream);
++      struct snd_card *card = bus->card;
++      struct snd_pcm_runtime *runtime = substream->runtime;
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Entry, substream: %p, bus: %d\n", __func__, substream,
++              BUS_INDEX(bus));
++
++      if (BUS_IS_RX(bus)) {
++              runtime->hw = timbi2s_rx_hw;
++              if (bus->sample_rate == 8000) {
++                      runtime->hw.rates = SNDRV_PCM_RATE_8000;
++                      runtime->hw.rate_min = 8000;
++                      runtime->hw.rate_max = 8000;
++              }
++      } else
++              runtime->hw = timbi2s_tx_hw;
++
++      bus->substream = substream;
++
++      return 0;
++}
++
++static int timbi2s_close(struct snd_pcm_substream *substream)
++{
++      struct timbi2s_bus *bus = snd_pcm_substream_chip(substream);
++      struct snd_card *card = bus->card;
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Entry, substream: %p, bus: %d\n", __func__, substream,
++              BUS_INDEX(bus));
++
++      bus->substream = NULL;
++
++      return 0;
++}
++
++static int timbi2s_hw_params(struct snd_pcm_substream *substream,
++              struct snd_pcm_hw_params *hw_params)
++{
++      struct timbi2s_bus *bus = snd_pcm_substream_chip(substream);
++      struct snd_card *card = bus->card;
++      struct timbi2s *i2s = snd_pcm_chip(card);
++      int err;
++
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Entry, substream: %p, bus: %d\n", __func__,
++              substream, BUS_INDEX(bus));
++
++      bus->prescale = timbi2s_calc_prescale(i2s->main_clk,
++                      params_rate(hw_params));
++
++      err = snd_pcm_lib_malloc_pages(substream,
++              params_buffer_bytes(hw_params));
++      if (err < 0)
++              return err;
++
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Rate: %d, format: %d\n", __func__, params_rate(hw_params),
++              params_format(hw_params));
++
++      return 0;
++}
++
++static int timbi2s_hw_free(struct snd_pcm_substream *substream)
++{
++      struct timbi2s_bus *bus = snd_pcm_substream_chip(substream);
++      struct snd_card *card = bus->card;
++      unsigned long flags;
++
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Entry, substream: %p\n", __func__, substream);
++
++      spin_lock_irqsave(&bus->lock, flags);
++      /* disable interrupts */
++      timbi2s_bus_write(bus, 0, TIMBI2S_BUS_IER);
++      spin_unlock_irqrestore(&bus->lock, flags);
++
++      /* disable TX and RX */
++      timbi2s_bus_write(bus, TIMBI2S_ICOR_FIFO_RST | TIMBI2S_ICOR_SOFT_RST,
++              TIMBI2S_BUS_ICOR);
++
++      return snd_pcm_lib_free_pages(substream);
++}
++
++static int timbi2s_prepare(struct snd_pcm_substream *substream)
++{
++      struct timbi2s_bus *bus = snd_pcm_substream_chip(substream);
++      struct snd_card *card = bus->card;
++      struct snd_pcm_runtime *runtime = substream->runtime;
++      u32 data;
++
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Entry, substream: %p, bus: %d, buffer: %d, period: %d\n",
++              __func__, substream,
++              BUS_INDEX(bus), (int)snd_pcm_lib_buffer_bytes(substream),
++              (int)snd_pcm_lib_period_bytes(substream));
++
++      if (runtime->dma_addr & 3 || runtime->buffer_size & 3) {
++              dev_err(snd_card_get_device_link(card),
++                      "%s: Only word aligned data allowed\n", __func__);
++              return -EINVAL;
++      }
++
++      if (runtime->channels != NUM_CHANNELS) {
++              dev_err(snd_card_get_device_link(card),
++                      "%s: Number of channels unsupported %d\n", __func__,
++                      runtime->channels);
++              return -EINVAL;
++      }
++
++      /* reset */
++      timbi2s_bus_write(bus, TIMBI2S_ICOR_FIFO_RST | TIMBI2S_ICOR_SOFT_RST,
++              TIMBI2S_BUS_ICOR);
++
++      /* only masters have prescaling, don't write if not needed */
++      if (BUS_IS_MASTER(bus))
++              timbi2s_bus_write(bus, bus->prescale, TIMBI2S_BUS_PRESCALE);
++
++      /* write word select */
++      data = ((BITS_PER_CHANNEL << TIMBI2S_ICOR_WORD_SEL_LEFT_SHIFT) &
++              TIMBI2S_ICOR_WORD_SEL_LEFT_MASK) |
++              ((BITS_PER_CHANNEL << TIMBI2S_ICOR_WORD_SEL_RIGHT_SHIFT) &
++              TIMBI2S_ICOR_WORD_SEL_RIGHT_MASK);
++      timbi2s_bus_write(bus, data, TIMBI2S_BUS_ICOR);
++
++      bus->buf_pos = 0;
++
++      return 0;
++}
++
++static int
++timbi2s_playback_trigger(struct snd_pcm_substream *substream, int cmd)
++{
++      struct timbi2s_bus *bus = snd_pcm_substream_chip(substream);
++      struct snd_card *card = bus->card;
++      unsigned long flags;
++      u32 data;
++
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Entry, substream: %p, bus: %d, cmd: %d\n", __func__,
++              substream, BUS_INDEX(bus), cmd);
++
++      switch (cmd) {
++      case SNDRV_PCM_TRIGGER_START:
++              dev_dbg(snd_card_get_device_link(card),
++                      "%s: Got TRIGGER_START command\n", __func__);
++
++              /* start */
++              data = timbi2s_bus_read(bus, TIMBI2S_BUS_ICOR);
++              data |= TIMBI2S_ICOR_TX_ENABLE;
++              timbi2s_bus_write(bus, data, TIMBI2S_BUS_ICOR);
++
++              /* enable interrupts */
++              timbi2s_bus_write(bus, TIMBI2S_IRQ_TX_ALMOST_EMPTY,
++                      TIMBI2S_BUS_IER);
++              dev_dbg(snd_card_get_device_link(card),
++                      "%s: ISR: %x, ICOR: %x\n", __func__,
++                      timbi2s_bus_read(bus, TIMBI2S_BUS_ISR),
++                      timbi2s_bus_read(bus, TIMBI2S_BUS_ICOR));
++              break;
++      case SNDRV_PCM_TRIGGER_STOP:
++              dev_dbg(snd_card_get_device_link(card),
++                      "%s: Got TRIGGER_STOP command\n", __func__);
++
++              spin_lock_irqsave(&bus->lock, flags);
++              /* disable interrupts */
++              timbi2s_bus_write(bus, 0, TIMBI2S_BUS_IER);
++              spin_unlock_irqrestore(&bus->lock, flags);
++
++              /* reset */
++              data = timbi2s_bus_read(bus, TIMBI2S_BUS_ICOR);
++              data &= ~TIMBI2S_ICOR_TX_ENABLE;
++
++              timbi2s_bus_write(bus, data, TIMBI2S_BUS_ICOR);
++              break;
++      default:
++              dev_dbg(snd_card_get_device_link(card),
++                      "%s: Got unsupported command\n", __func__);
++
++              return -EINVAL;
++      }
++
++      return 0;
++}
++
++static int
++timbi2s_capture_trigger(struct snd_pcm_substream *substream, int cmd)
++{
++      struct timbi2s_bus *bus = snd_pcm_substream_chip(substream);
++      struct snd_card *card = bus->card;
++      unsigned long flags;
++
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Entry, substream: %p, bus: %d, cmd: %d\n", __func__,
++              substream, BUS_INDEX(bus), cmd);
++
++      switch (cmd) {
++      case SNDRV_PCM_TRIGGER_START:
++              dev_dbg(snd_card_get_device_link(card),
++                      "%s: Got TRIGGER_START command\n", __func__);
++
++              timbi2s_bus_write(bus, TIMBI2S_ICOR_RX_ENABLE |
++                      TIMBI2S_ICOR_FIFO_RST, TIMBI2S_BUS_ICOR);
++
++              timbi2s_bus_write(bus, TIMBI2S_IRQ_RX_ALMOST_FULL,
++                      TIMBI2S_BUS_IER);
++              break;
++      case SNDRV_PCM_TRIGGER_STOP:
++              dev_dbg(snd_card_get_device_link(card),
++                      "%s: Got TRIGGER_STOP command\n", __func__);
++              /* disable interrupts */
++              spin_lock_irqsave(&bus->lock, flags);
++              timbi2s_bus_write(bus, 0, TIMBI2S_BUS_IER);
++              spin_unlock_irqrestore(&bus->lock, flags);
++              /* Stop RX */
++              timbi2s_bus_write(bus, 0, TIMBI2S_BUS_ICOR);
++              break;
++      default:
++              dev_dbg(snd_card_get_device_link(card),
++                      "%s: Got unsupported command\n", __func__);
++
++              return -EINVAL;
++      }
++
++      return 0;
++}
++
++static snd_pcm_uframes_t
++timbi2s_pointer(struct snd_pcm_substream *substream)
++{
++      struct timbi2s_bus *bus = snd_pcm_substream_chip(substream);
++      struct snd_card *card = bus->card;
++      snd_pcm_uframes_t ret;
++
++      dev_dbg(snd_card_get_device_link(card),
++              "%s: Entry, substream: %p\n", __func__, substream);
++
++      ret = bytes_to_frames(substream->runtime, bus->buf_pos);
++      if (ret >= substream->runtime->buffer_size)
++              ret -= substream->runtime->buffer_size;
++
++      return ret;
++}
++
++static struct snd_pcm_ops timbi2s_playback_ops = {
++      .open           = timbi2s_open,
++      .close          = timbi2s_close,
++      .ioctl          = snd_pcm_lib_ioctl,
++      .hw_params      = timbi2s_hw_params,
++      .hw_free        = timbi2s_hw_free,
++      .prepare        = timbi2s_prepare,
++      .trigger        = timbi2s_playback_trigger,
++      .pointer        = timbi2s_pointer,
++};
++
++static struct snd_pcm_ops timbi2s_capture_ops = {
++      .open           = timbi2s_open,
++      .close          = timbi2s_close,
++      .ioctl          = snd_pcm_lib_ioctl,
++      .hw_params      = timbi2s_hw_params,
++      .hw_free        = timbi2s_hw_free,
++      .prepare        = timbi2s_prepare,
++      .trigger        = timbi2s_capture_trigger,
++      .pointer        = timbi2s_pointer,
++};
++
++static void timbi2s_irq_process_rx(struct timbi2s_bus *bus)
++{
++      struct snd_pcm_runtime *runtime = bus->substream->runtime;
++      u32 buffer_size = snd_pcm_lib_buffer_bytes(bus->substream);
++      u32 ipr = timbi2s_bus_read(bus, TIMBI2S_BUS_IPR);
++      int i;
++
++      dev_dbg(snd_card_get_device_link(bus->card),
++              "%s: Entry, bus: %d, IPR %x\n", __func__, BUS_INDEX(bus), ipr);
++
++      for (i = 0; i < NUM_SAMPLES; i++) {
++              *(u32 *)(runtime->dma_area + bus->buf_pos) =
++                      timbi2s_bus_read(bus, TIMBI2S_BUS_FIFO);
++              bus->buf_pos += SAMPLE_SIZE;
++              bus->buf_pos %= buffer_size;
++      }
++
++      timbi2s_bus_write(bus, ipr, TIMBI2S_BUS_ICLR);
++
++      /* inform ALSA that a period was received */
++      snd_pcm_period_elapsed(bus->substream);
++}
++
++static void timbi2s_irq_process_tx(struct timbi2s_bus *bus)
++{
++      struct snd_pcm_runtime *runtime = bus->substream->runtime;
++      u32 buffer_size = snd_pcm_lib_buffer_bytes(bus->substream);
++      u32 ipr = timbi2s_bus_read(bus, TIMBI2S_BUS_IPR);
++      int i;
++
++      dev_dbg(snd_card_get_device_link(bus->card),
++              "%s: Entry, bus: %d, IPR %x\n", __func__, BUS_INDEX(bus), ipr);
++
++      for (i = 0; i < NUM_SAMPLES; i++) {
++              timbi2s_bus_write(bus,
++                      *(u32 *)(runtime->dma_area + bus->buf_pos),
++                      TIMBI2S_BUS_FIFO);
++              bus->buf_pos += SAMPLE_SIZE;
++              bus->buf_pos %= buffer_size;
++      }
++
++      dev_dbg(snd_card_get_device_link(bus->card), "%s: ISR: %x, ICOR: %x\n",
++              __func__, timbi2s_bus_read(bus, TIMBI2S_BUS_ISR),
++              timbi2s_bus_read(bus, TIMBI2S_BUS_ICOR));
++
++      timbi2s_bus_write(bus, ipr, TIMBI2S_BUS_ICLR);
++
++      /* inform ALSA that a period was received */
++      snd_pcm_period_elapsed(bus->substream);
++}
++
++static void timbi2s_tasklet(unsigned long arg)
++{
++      struct snd_card *card = (struct snd_card *)arg;
++      struct timbi2s *i2s = snd_pcm_chip(card);
++      u32 uir = ioread32(i2s->membase + TIMBI2S_REG_UIR);
++      unsigned i;
++
++      dev_dbg(snd_card_get_device_link(card), "%s: Entry, UIR %x\n",
++              __func__, uir);
++
++      for (i = 0; i < i2s->num_busses; i++)
++              if (uir & (1 << i)) {
++                      struct timbi2s_bus *bus = i2s->busses + i;
++                      if (BUS_IS_RX(bus))
++                              timbi2s_irq_process_rx(bus);
++                      else
++                              timbi2s_irq_process_tx(bus);
++              }
++
++      enable_irq(i2s->irq);
++}
++
++static irqreturn_t timbi2s_irq(int irq, void *devid)
++{
++      struct timbi2s *i2s = devid;
++
++      tasklet_schedule(&i2s->tasklet);
++      disable_irq_nosync(i2s->irq);
++
++      return IRQ_HANDLED;
++}
++
++static int timbi2s_setup_busses(struct snd_card *card,
++      struct platform_device *pdev)
++{
++      const struct timbi2s_platform_data *pdata = pdev->dev.platform_data;
++      unsigned i;
++
++      dev_dbg(&pdev->dev, "%s: Entry, no busses: %d, busses: %p\n", __func__,
++              pdata->num_busses, pdata->busses);
++
++      for (i = 0; i < pdata->num_busses; i++) {
++              int                     capture = pdata->busses[i].rx;
++              int                     err;
++              u32                     ctl;
++              struct timbi2s          *i2s = snd_pcm_chip(card);
++              struct timbi2s_bus      *bus = i2s->busses + i;
++
++              dev_dbg(&pdev->dev, "%s: Setting up bus: %d\n", __func__, i);
++
++              SET_BUS_INDEX(bus, i);
++              bus->sample_rate = pdata->busses[i].sample_rate;
++              bus->card = card;
++              /* prescaling only applies to master busses, we use the
++               * knowledge of that to identify the direction later
++               * eg, bus->prescale != 0 -> master bus
++               */
++              if (capture)
++                      SET_BUS_RX(bus);
++
++              spin_lock_init(&bus->lock);
++
++              if (bus->sample_rate != 44100 && bus->sample_rate != 8000) {
++                      dev_err(&pdev->dev,
++                              "Unsupported bitrate: %d\n", bus->sample_rate);
++                      return -EINVAL;
++              }
++
++              dev_dbg(&pdev->dev, "%s: Will check HW direction on bus: %d\n",
++                      __func__, BUS_INDEX(bus));
++
++              /* check that the HW agrees with the direction */
++              ctl = timbi2s_bus_read(bus, TIMBI2S_BUS_ICOR);
++              if ((capture && !(ctl & TIMBI2S_ICOR_RX_ID)) ||
++                      (!capture && !(ctl & TIMBI2S_ICOR_TX_ID))) {
++                      dev_dbg(&pdev->dev,
++                              "HW and platform data disagree on direction\n");
++                      return -EINVAL;
++              }
++
++              dev_dbg(&pdev->dev, "%s: Will create PCM channel for bus: %d\n",
++                      __func__, BUS_INDEX(bus));
++              err = snd_pcm_new(card, card->shortname, i, !capture,
++                      capture, &bus->pcm);
++              if (err) {
++                      dev_dbg(&pdev->dev, "%s, Failed to create pcm: %d\n",
++                              __func__, err);
++                      return err;
++              }
++
++              if (capture)
++                      snd_pcm_set_ops(bus->pcm, SNDRV_PCM_STREAM_CAPTURE,
++                              &timbi2s_capture_ops);
++              if (!capture)
++                      snd_pcm_set_ops(bus->pcm, SNDRV_PCM_STREAM_PLAYBACK,
++                              &timbi2s_playback_ops);
++
++              dev_dbg(&pdev->dev, "%s: Will preallocate buffers to bus: %d\n",
++                      __func__, BUS_INDEX(bus));
++
++              err = snd_pcm_lib_preallocate_pages_for_all(bus->pcm,
++                      SNDRV_DMA_TYPE_CONTINUOUS,
++                      snd_dma_continuous_data(GFP_KERNEL),
++                      NUM_SAMPLES * NUM_PERIODS * SAMPLE_SIZE * 2,
++                      NUM_SAMPLES * NUM_PERIODS * SAMPLE_SIZE * 2);
++              if (err) {
++                      dev_dbg(&pdev->dev, "%s, Failed to create pcm: %d\n",
++                              __func__, err);
++
++                      return err;
++              }
++
++              bus->pcm->private_data = bus;
++              bus->pcm->info_flags = 0;
++              strcpy(bus->pcm->name, card->shortname);
++              i2s->num_busses++;
++      }
++
++      return 0;
++}
++
++static int __devinit timbi2s_probe(struct platform_device *pdev)
++{
++      int err;
++      int irq;
++      struct timbi2s *i2s;
++      struct resource *iomem;
++      const struct timbi2s_platform_data *pdata = pdev->dev.platform_data;
++      struct snd_card *card;
++      u32 ver;
++
++      if (!pdata) {
++              err = -ENODEV;
++              goto out;
++      }
++
++      if (pdata->num_busses > MAX_BUSSES) {
++              err = -EINVAL;
++              goto out;
++      }
++
++      iomem = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++      if (!iomem) {
++              err = -ENODEV;
++              goto out;
++      }
++
++      irq = platform_get_irq(pdev, 0);
++      if (irq < 0) {
++              err = -ENODEV;
++              goto out;
++      }
++
++      err = snd_card_create(SNDRV_DEFAULT_IDX1, SNDRV_DEFAULT_STR1,
++              THIS_MODULE, sizeof(struct timbi2s) +
++              sizeof(struct timbi2s_bus) * pdata->num_busses, &card);
++      if (err)
++              goto out;
++
++      strcpy(card->driver, "Timberdale I2S");
++      strcpy(card->shortname, "Timberdale I2S");
++      sprintf(card->longname, "Timberdale I2S Driver");
++
++      snd_card_set_dev(card, &pdev->dev);
++
++      i2s = snd_pcm_chip(card);
++
++      if (!request_mem_region(iomem->start, resource_size(iomem),
++              DRIVER_NAME)) {
++              err = -EBUSY;
++              goto err_region;
++      }
++
++      i2s->membase = ioremap(iomem->start, resource_size(iomem));
++      if (!i2s->membase) {
++              err = -ENOMEM;
++              goto err_ioremap;
++      }
++
++      err = timbi2s_setup_busses(card, pdev);
++      if (err)
++              goto err_setup;
++
++      tasklet_init(&i2s->tasklet, timbi2s_tasklet, (unsigned long)card);
++      i2s->irq = irq;
++      i2s->main_clk = pdata->main_clk;
++
++      err = request_irq(irq, timbi2s_irq, 0, DRIVER_NAME, i2s);
++      if (err)
++              goto err_request_irq;
++
++      err = snd_card_register(card);
++      if (err)
++              goto err_register;
++
++      platform_set_drvdata(pdev, card);
++
++      ver = ioread32(i2s->membase + TIMBI2S_REG_VER);
++
++      printk(KERN_INFO
++              "Driver for Timberdale I2S (ver: %d.%d) successfully probed.\n",
++              ver >> 16 , ver & 0xffff);
++
++      return 0;
++
++err_register:
++      free_irq(irq, card);
++err_request_irq:
++err_setup:
++      iounmap(i2s->membase);
++err_ioremap:
++      release_mem_region(iomem->start, resource_size(iomem));
++err_region:
++      snd_card_free(card);
++out:
++      printk(KERN_ERR DRIVER_NAME": Failed to register: %d\n", err);
++
++      return err;
++}
++
++static int __devexit timbi2s_remove(struct platform_device *pdev)
++{
++      struct snd_card *card = platform_get_drvdata(pdev);
++      struct timbi2s *i2s = snd_pcm_chip(card);
++      struct resource *iomem = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++
++      tasklet_kill(&i2s->tasklet);
++      free_irq(i2s->irq, i2s);
++
++      iounmap(i2s->membase);
++      release_mem_region(iomem->start, resource_size(iomem));
++      snd_card_free(card);
++
++      platform_set_drvdata(pdev, 0);
++      return 0;
++}
++
++static struct platform_driver timbi2s_platform_driver = {
++      .driver = {
++              .name   = DRIVER_NAME,
++              .owner  = THIS_MODULE,
++      },
++      .probe          = timbi2s_probe,
++      .remove         = __devexit_p(timbi2s_remove),
++};
++
++/*--------------------------------------------------------------------------*/
++
++static int __init timbi2s_init(void)
++{
++      return platform_driver_register(&timbi2s_platform_driver);
++}
++
++static void __exit timbi2s_exit(void)
++{
++      platform_driver_unregister(&timbi2s_platform_driver);
++}
++
++module_init(timbi2s_init);
++module_exit(timbi2s_exit);
++
++MODULE_ALIAS("platform:"DRIVER_NAME);
++MODULE_DESCRIPTION("Timberdale I2S bus driver");
++MODULE_AUTHOR("Mocean Laboratories <info@mocean-labs.com>");
++MODULE_LICENSE("GPL v2");
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-2-2-timberdale.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-2-2-timberdale.patch
new file mode 100644 (file)
index 0000000..3a7e278
--- /dev/null
@@ -0,0 +1,44 @@
+From 9de5f61c79361bf6e9394d2f77a2b436d53deee5 Mon Sep 17 00:00:00 2001
+From: Yong Wang <yong.y.wang@intel.com>
+Date: Tue, 30 Jun 2009 14:17:19 +0800
+Subject: [PATCH] Revert "net: num_dma_maps is not used"
+
+This reverts commit eae3f29cc73f83cc3f1891d3ad40021b5172c630.
+
+The IVI driver is a user of num_dma_maps.
+
+Signed-off-by: Yong Wang <yong.y.wang@intel.com>
+---
+ include/linux/skbuff.h |    3 +++
+ net/core/skb_dma_map.c |    1 +
+ 2 files changed, 4 insertions(+), 0 deletions(-)
+
+diff --git a/include/linux/skbuff.h b/include/linux/skbuff.h
+index b47b3f0..468bc21 100644
+--- a/include/linux/skbuff.h
++++ b/include/linux/skbuff.h
+@@ -198,6 +198,9 @@ struct skb_shared_info {
+       unsigned short  gso_type;
+       __be32          ip6_frag_id;
+       union skb_shared_tx tx_flags;
++#ifdef CONFIG_HAS_DMA
++      unsigned int    num_dma_maps;
++#endif
+       struct sk_buff  *frag_list;
+       struct skb_shared_hwtstamps hwtstamps;
+       skb_frag_t      frags[MAX_SKB_FRAGS];
+diff --git a/net/core/skb_dma_map.c b/net/core/skb_dma_map.c
+index 79687df..07d4ac5 100644
+--- a/net/core/skb_dma_map.c
++++ b/net/core/skb_dma_map.c
+@@ -30,6 +30,7 @@ int skb_dma_map(struct device *dev, struct sk_buff *skb,
+                       goto unwind;
+               sp->dma_maps[i] = map;
+       }
++      sp->num_dma_maps = i + 1;
+       return 0;
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-bluetooth-suspend.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-bluetooth-suspend.patch
new file mode 100644 (file)
index 0000000..786e1f2
--- /dev/null
@@ -0,0 +1,465 @@
+diff --git a/drivers/bluetooth/btusb.c b/drivers/bluetooth/btusb.c
+index e70c57e..8e36fc8 100644
+--- a/drivers/bluetooth/btusb.c
++++ b/drivers/bluetooth/btusb.c
+@@ -35,7 +36,7 @@
+ #include <net/bluetooth/bluetooth.h>
+ #include <net/bluetooth/hci_core.h>
+-#define VERSION "0.5"
++#define VERSION "0.6"
+ static int ignore_dga;
+ static int ignore_csr;
+@@ -145,6 +146,7 @@ static struct usb_device_id blacklist_table[] = {
+ #define BTUSB_INTR_RUNNING    0
+ #define BTUSB_BULK_RUNNING    1
+ #define BTUSB_ISOC_RUNNING    2
++#define BTUSB_SUSPENDING      3
+ struct btusb_data {
+       struct hci_dev       *hdev;
+@@ -157,11 +159,15 @@ struct btusb_data {
+       unsigned long flags;
+       struct work_struct work;
++      struct work_struct waker;
+       struct usb_anchor tx_anchor;
+       struct usb_anchor intr_anchor;
+       struct usb_anchor bulk_anchor;
+       struct usb_anchor isoc_anchor;
++      struct usb_anchor deferred;
++      int tx_in_flight;
++      spinlock_t txlock;
+       struct usb_endpoint_descriptor *intr_ep;
+       struct usb_endpoint_descriptor *bulk_tx_ep;
+@@ -174,8 +180,26 @@ struct btusb_data {
+       unsigned int sco_num;
+       int isoc_altsetting;
+       int suspend_count;
++      int did_iso_resume:1;
+ };
++static int inc_tx(struct btusb_data *data)
++{
++      unsigned long flags;
++      int rv;
++
++      spin_lock_irqsave(&data->txlock, flags);
++      rv = test_bit(BTUSB_SUSPENDING, &data->flags);
++      BT_DBG("BTUSB_SUSPENDING bit = %d for intf %p in %s",
++                      rv, data->intf, __func__);
++      if (!rv)
++              data->tx_in_flight++;
++      spin_unlock_irqrestore(&data->txlock, flags);
++
++      return rv;
++}
++
++
+ static void btusb_intr_complete(struct urb *urb)
+ {
+       struct hci_dev *hdev = urb->context;
+@@ -202,6 +226,7 @@ static void btusb_intr_complete(struct urb *urb)
+       if (!test_bit(BTUSB_INTR_RUNNING, &data->flags))
+               return;
++      usb_mark_last_busy(data->udev);
+       usb_anchor_urb(urb, &data->intr_anchor);
+       err = usb_submit_urb(urb, GFP_ATOMIC);
+@@ -327,6 +352,7 @@ static int btusb_submit_bulk_urb(struct hci_dev *hdev, gfp_t mem_flags)
+       urb->transfer_flags |= URB_FREE_BUFFER;
++      usb_mark_last_busy(data->udev);
+       usb_anchor_urb(urb, &data->bulk_anchor);
+       err = usb_submit_urb(urb, mem_flags);
+@@ -465,6 +491,33 @@ static void btusb_tx_complete(struct urb *urb)
+ {
+       struct sk_buff *skb = urb->context;
+       struct hci_dev *hdev = (struct hci_dev *) skb->dev;
++      struct btusb_data *data = hdev->driver_data;
++
++      BT_DBG("%s urb %p status %d count %d", hdev->name,
++                                      urb, urb->status, urb->actual_length);
++
++      if (!test_bit(HCI_RUNNING, &hdev->flags))
++              goto done;
++
++      if (!urb->status)
++              hdev->stat.byte_tx += urb->transfer_buffer_length;
++      else
++              hdev->stat.err_tx++;
++
++done:
++      spin_lock(&data->txlock);
++      data->tx_in_flight--;
++      spin_unlock(&data->txlock);
++
++      kfree(urb->setup_packet);
++
++      kfree_skb(skb);
++}
++
++static void btusb_isoc_tx_complete(struct urb *urb)
++{
++      struct sk_buff *skb = urb->context;
++      struct hci_dev *hdev = (struct hci_dev *) skb->dev;
+       BT_DBG("%s urb %p status %d count %d", hdev->name,
+                                       urb, urb->status, urb->actual_length);
+@@ -490,11 +543,16 @@ static int btusb_open(struct hci_dev *hdev)
+       BT_DBG("%s", hdev->name);
++      err = usb_autopm_get_interface(data->intf);
++      if (err < 0)
++              return err;
++      data->intf->needs_remote_wakeup = 1;
++
+       if (test_and_set_bit(HCI_RUNNING, &hdev->flags))
+-              return 0;
++              goto out;
+       if (test_and_set_bit(BTUSB_INTR_RUNNING, &data->flags))
+-              return 0;
++              goto out;
+       err = btusb_submit_intr_urb(hdev, GFP_KERNEL);
+       if (err < 0)
+@@ -502,6 +560,7 @@ static int btusb_open(struct hci_dev *hdev)
+       err = btusb_submit_bulk_urb(hdev, GFP_KERNEL);
+       if (err < 0) {
++              BT_DBG("kill urbs %s", __func__);
+               usb_kill_anchored_urbs(&data->intr_anchor);
+               goto failed;
+       }
+@@ -509,17 +568,28 @@ static int btusb_open(struct hci_dev *hdev)
+       set_bit(BTUSB_BULK_RUNNING, &data->flags);
+       btusb_submit_bulk_urb(hdev, GFP_KERNEL);
++out:
++      usb_autopm_put_interface(data->intf);
+       return 0;
+ failed:
+       clear_bit(BTUSB_INTR_RUNNING, &data->flags);
+       clear_bit(HCI_RUNNING, &hdev->flags);
++      usb_autopm_put_interface(data->intf);
+       return err;
+ }
++static void btusb_stop_traffic(struct btusb_data *data)
++{
++      usb_kill_anchored_urbs(&data->intr_anchor);
++      usb_kill_anchored_urbs(&data->bulk_anchor);
++      usb_kill_anchored_urbs(&data->isoc_anchor);
++}
++
+ static int btusb_close(struct hci_dev *hdev)
+ {
+       struct btusb_data *data = hdev->driver_data;
++      int err;
+       BT_DBG("%s", hdev->name);
+@@ -529,13 +599,16 @@ static int btusb_close(struct hci_dev *hdev)
+       cancel_work_sync(&data->work);
+       clear_bit(BTUSB_ISOC_RUNNING, &data->flags);
+-      usb_kill_anchored_urbs(&data->isoc_anchor);
+-
+       clear_bit(BTUSB_BULK_RUNNING, &data->flags);
+-      usb_kill_anchored_urbs(&data->bulk_anchor);
+-
+       clear_bit(BTUSB_INTR_RUNNING, &data->flags);
+-      usb_kill_anchored_urbs(&data->intr_anchor);
++
++      BT_DBG("kill urbs %s", __func__);
++      btusb_stop_traffic(data);
++      err = usb_autopm_get_interface(data->intf);
++      if (!err) {
++              data->intf->needs_remote_wakeup = 0;
++              usb_autopm_put_interface(data->intf);
++      }
+       return 0;
+ }
+@@ -546,6 +619,7 @@ static int btusb_flush(struct hci_dev *hdev)
+       BT_DBG("%s", hdev->name);
++      BT_DBG("kill urbs %s", __func__);
+       usb_kill_anchored_urbs(&data->tx_anchor);
+       return 0;
+@@ -622,7 +696,7 @@ static int btusb_send_frame(struct sk_buff *skb)
+               urb->dev      = data->udev;
+               urb->pipe     = pipe;
+               urb->context  = skb;
+-              urb->complete = btusb_tx_complete;
++              urb->complete = btusb_isoc_tx_complete;
+               urb->interval = data->isoc_tx_ep->bInterval;
+               urb->transfer_flags  = URB_ISO_ASAP;
+@@ -633,12 +707,23 @@ static int btusb_send_frame(struct sk_buff *skb)
+                               le16_to_cpu(data->isoc_tx_ep->wMaxPacketSize));
+               hdev->stat.sco_tx++;
+-              break;
++              goto skip_waking;
+       default:
+               return -EILSEQ;
+       }
++      err = inc_tx(data);
++      if (err) {
++
++              usb_anchor_urb(urb, &data->deferred);
++              schedule_work(&data->waker);
++              err = 0;
++              goto out;
++      } else {
++
++      }
++skip_waking:
+       usb_anchor_urb(urb, &data->tx_anchor);
+       err = usb_submit_urb(urb, GFP_ATOMIC);
+@@ -646,10 +731,13 @@ static int btusb_send_frame(struct sk_buff *skb)
+               BT_ERR("%s urb %p submission failed", hdev->name, urb);
+               kfree(urb->setup_packet);
+               usb_unanchor_urb(urb);
++      } else {
++              usb_mark_last_busy(data->udev);
+       }
+       usb_free_urb(urb);
++out:
+       return err;
+ }
+@@ -721,10 +809,23 @@ static void btusb_work(struct work_struct *work)
+ {
+       struct btusb_data *data = container_of(work, struct btusb_data, work);
+       struct hci_dev *hdev = data->hdev;
++      int err;
+       if (hdev->conn_hash.sco_num > 0) {
++              if (!data->did_iso_resume) {
++                      err = usb_autopm_get_interface(data->isoc);
++                      if (!err) {
++                              data->did_iso_resume = 1;
++                      } else {
++                              clear_bit(BTUSB_ISOC_RUNNING, &data->flags);
++                              BT_DBG("kill urbs %s", __func__);
++                              usb_kill_anchored_urbs(&data->isoc_anchor);
++                              return;
++                      }
++              }
+               if (data->isoc_altsetting != 2) {
+                       clear_bit(BTUSB_ISOC_RUNNING, &data->flags);
++                      BT_DBG("kill urbs %s", __func__);
+                       usb_kill_anchored_urbs(&data->isoc_anchor);
+                       if (__set_isoc_interface(hdev, 2) < 0)
+@@ -739,12 +840,28 @@ static void btusb_work(struct work_struct *work)
+               }
+       } else {
+               clear_bit(BTUSB_ISOC_RUNNING, &data->flags);
++              BT_DBG("kill urbs %s", __func__);
+               usb_kill_anchored_urbs(&data->isoc_anchor);
+               __set_isoc_interface(hdev, 0);
++              if (data->did_iso_resume) {
++                      data->did_iso_resume = 0;
++                      usb_autopm_put_interface(data->isoc);
++              }
+       }
+ }
++static void btusb_waker(struct work_struct *work)
++{
++      struct btusb_data *data = container_of(work, struct btusb_data, waker);
++      int err;
++
++
++      err = usb_autopm_get_interface(data->intf);
++      if (!err)
++              usb_autopm_put_interface(data->intf);
++}
++
+ static int btusb_probe(struct usb_interface *intf,
+                               const struct usb_device_id *id)
+ {
+@@ -814,11 +931,14 @@ static int btusb_probe(struct usb_interface *intf,
+       spin_lock_init(&data->lock);
+       INIT_WORK(&data->work, btusb_work);
++      INIT_WORK(&data->waker, btusb_waker);
++      spin_lock_init(&data->txlock);
+       init_usb_anchor(&data->tx_anchor);
+       init_usb_anchor(&data->intr_anchor);
+       init_usb_anchor(&data->bulk_anchor);
+       init_usb_anchor(&data->isoc_anchor);
++      init_usb_anchor(&data->deferred);
+       hdev = hci_alloc_dev();
+       if (!hdev) {
+@@ -949,39 +1069,78 @@ static int btusb_suspend(struct usb_interface *intf, pm_message_t message)
+       BT_DBG("intf %p", intf);
+-      if (data->suspend_count++)
++      if (data->suspend_count++) {
++              BT_DBG("data->suspend_count = %d for intf %p, returning from %s",
++                              data->suspend_count, intf, __func__);
+               return 0;
++      }
++      BT_DBG("data->suspend_count = %d for intf %p, continuing %s",
++                      data->suspend_count, intf, __func__);
++
++      spin_lock_irq(&data->txlock);
++      if (!(interface_to_usbdev(intf)->auto_pm && data->tx_in_flight)) {
++              BT_DBG("Setting BTUSB_SUSPENDING bit in %s for intf %p",
++                              __func__, intf);
++              set_bit(BTUSB_SUSPENDING, &data->flags);
++              spin_unlock_irq(&data->txlock);
++      } else {
++              spin_unlock_irq(&data->txlock);
++              BT_DBG("%d URBs in flight", data->tx_in_flight);
++              data->suspend_count--;
++              return -EBUSY;
++      }
+       cancel_work_sync(&data->work);
++      BT_DBG("kill urbs %s", __func__);
++      btusb_stop_traffic(data);
+       usb_kill_anchored_urbs(&data->tx_anchor);
+-      usb_kill_anchored_urbs(&data->isoc_anchor);
+-      usb_kill_anchored_urbs(&data->bulk_anchor);
+-      usb_kill_anchored_urbs(&data->intr_anchor);
+-
+       return 0;
+ }
++static void play_deferred(struct btusb_data *data)
++{
++      struct urb *urb;
++      int err;
++
++      while ((urb = usb_get_from_anchor(&data->deferred))) {
++              err = usb_submit_urb(urb, GFP_ATOMIC);
++              if (err < 0)
++                      break;
++              else
++                      data->tx_in_flight++;
++                      
++      }
++      usb_scuttle_anchored_urbs(&data->deferred);
++}
++
+ static int btusb_resume(struct usb_interface *intf)
+ {
+       struct btusb_data *data = usb_get_intfdata(intf);
+       struct hci_dev *hdev = data->hdev;
+-      int err;
++      int err = 0;
+       BT_DBG("intf %p", intf);
+-      if (--data->suspend_count)
++      if (--data->suspend_count) {
++              BT_DBG("data->suspend_count = %d for intf %p, returning from %s",
++                              data->suspend_count, intf, __func__);
+               return 0;
++      }
+-      if (!test_bit(HCI_RUNNING, &hdev->flags))
+-              return 0;
++      if (!test_bit(HCI_RUNNING, &hdev->flags)) {
++              BT_DBG("HCI not running, returning from %s", __func__);
++              goto no_io_needed;
++      }
+       if (test_bit(BTUSB_INTR_RUNNING, &data->flags)) {
+               err = btusb_submit_intr_urb(hdev, GFP_NOIO);
+               if (err < 0) {
+                       clear_bit(BTUSB_INTR_RUNNING, &data->flags);
+-                      return err;
++                      BT_DBG("Error (%d) submitting interrupt URB, returning from %s",
++                                      err, __func__);
++                      goto err_out;
+               }
+       }
+@@ -989,9 +1148,12 @@ static int btusb_resume(struct usb_interface *intf)
+               err = btusb_submit_bulk_urb(hdev, GFP_NOIO);
+               if (err < 0) {
+                       clear_bit(BTUSB_BULK_RUNNING, &data->flags);
+-                      return err;
+-              } else
++                      BT_DBG("Error (%d) submitting bulk URB, returning from %s",
++                                      err, __func__);
++                      goto err_out;
++              } else {
+                       btusb_submit_bulk_urb(hdev, GFP_NOIO);
++              }
+       }
+       if (test_bit(BTUSB_ISOC_RUNNING, &data->flags)) {
+@@ -1001,7 +1163,24 @@ static int btusb_resume(struct usb_interface *intf)
+                       btusb_submit_isoc_urb(hdev, GFP_NOIO);
+       }
++      spin_lock_irq(&data->txlock);
++      play_deferred(data);
++      BT_DBG("Clearing BTUSB_SUSPENDING bit in %s for intf %p", __func__, intf);
++      clear_bit(BTUSB_SUSPENDING, &data->flags);
++      spin_unlock_irq(&data->txlock);
++      schedule_work(&data->work);
++
+       return 0;
++
++err_out:
++      usb_scuttle_anchored_urbs(&data->deferred);
++no_io_needed:
++      spin_lock_irq(&data->txlock);
++      BT_DBG("Clearing BTUSB_SUSPENDING bit in %s for intf %p", __func__, intf);
++      clear_bit(BTUSB_SUSPENDING, &data->flags);
++      spin_unlock_irq(&data->txlock);
++
++      return err;
+ }
+ static struct usb_driver btusb_driver = {
+@@ -1011,6 +1190,7 @@ static struct usb_driver btusb_driver = {
+       .suspend        = btusb_suspend,
+       .resume         = btusb_resume,
+       .id_table       = btusb_table,
++      .supports_autosuspend = 1,
+ };
+ static int __init btusb_init(void)
+diff --git a/drivers/bluetooth/btusb.c b/drivers/bluetooth/btusb.c
+index e70c57e..ac94f91 100644
+--- a/drivers/bluetooth/btusb.c
++++ b/drivers/bluetooth/btusb.c
+@@ -908,6 +967,7 @@ static int btusb_probe(struct usb_interface *intf,
+       }
+       usb_set_intfdata(intf, data);
++      usb_device_autosuspend_enable(data->udev);
+       return 0;
+ }
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-fix.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-fix.patch
new file mode 100644 (file)
index 0000000..fabe878
--- /dev/null
@@ -0,0 +1,26 @@
+From 70ae749d15e012ab4a33aa2abe7a4d97a4dcebdb Mon Sep 17 00:00:00 2001
+From: Li Peng <peng.li@intel.com>
+Date: Thu, 20 Aug 2009 13:54:04 +0800
+Subject: Add G33 series in VGA hotplug support category
+
+Test on the IGD chip, which is a G33-like graphic device.
+---
+ drivers/gpu/drm/i915/i915_drv.h |    2 +-
+ 1 files changed, 1 insertions(+), 1 deletions(-)
+
+diff --git a/drivers/gpu/drm/i915/i915_drv.h b/drivers/gpu/drm/i915/i915_drv.h
+index 7537f57..940ee4c 100644
+--- a/drivers/gpu/drm/i915/i915_drv.h
++++ b/drivers/gpu/drm/i915/i915_drv.h
+@@ -892,7 +892,7 @@ extern int i915_wait_ring(struct drm_device * dev, int n, const char *caller);
+ #define SUPPORTS_INTEGRATED_HDMI(dev) (IS_G4X(dev) || IS_IGDNG(dev))
+ #define SUPPORTS_INTEGRATED_DP(dev)   (IS_G4X(dev) || IS_IGDNG(dev))
+ #define SUPPORTS_EDP(dev)             (IS_IGDNG_M(dev))
+-#define I915_HAS_HOTPLUG(dev) (IS_I945G(dev) || IS_I945GM(dev) || IS_I965G(dev))
++#define I915_HAS_HOTPLUG(dev) (IS_I945G(dev) || IS_I945GM(dev) || IS_G33(dev) || IS_I965G(dev))
+ /* dsparb controlled by hw only */
+ #define DSPARB_HWCONTROL(dev) (IS_G4X(dev) || IS_IGDNG(dev))
+-- 
+1.6.1.3
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-opregion.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-opregion.patch
new file mode 100644 (file)
index 0000000..a9b5e03
--- /dev/null
@@ -0,0 +1,43 @@
+diff --git a/drivers/gpu/drm/i915/i915_opregion.c b/drivers/gpu/drm/i915/i915_opregion.c
+index e4b4e88..2d51935 100644
+--- a/drivers/gpu/drm/i915/i915_opregion.c
++++ b/drivers/gpu/drm/i915/i915_opregion.c
+@@ -148,6 +148,7 @@ static u32 asle_set_backlight(struct drm_device *dev, u32 bclp)
+       struct drm_i915_private *dev_priv = dev->dev_private;
+       struct opregion_asle *asle = dev_priv->opregion.asle;
+       u32 blc_pwm_ctl, blc_pwm_ctl2;
++      u32 max_backlight, level, shift;
+       if (!(bclp & ASLE_BCLP_VALID))
+               return ASLE_BACKLIGHT_FAIL;
+@@ -157,14 +158,25 @@ static u32 asle_set_backlight(struct drm_device *dev, u32 bclp)
+               return ASLE_BACKLIGHT_FAIL;
+       blc_pwm_ctl = I915_READ(BLC_PWM_CTL);
+-      blc_pwm_ctl &= ~BACKLIGHT_DUTY_CYCLE_MASK;
+       blc_pwm_ctl2 = I915_READ(BLC_PWM_CTL2);
+-      if (blc_pwm_ctl2 & BLM_COMBINATION_MODE)
++      if (IS_I965G(dev) && (blc_pwm_ctl2 & BLM_COMBINATION_MODE))
+               pci_write_config_dword(dev->pdev, PCI_LBPC, bclp);
+-      else
+-              I915_WRITE(BLC_PWM_CTL, blc_pwm_ctl | ((bclp * 0x101)-1));
+-
++      else {
++              if (IS_IGD(dev)) {
++                      blc_pwm_ctl &= ~(BACKLIGHT_DUTY_CYCLE_MASK - 1);
++                      max_backlight = (blc_pwm_ctl & BACKLIGHT_MODULATION_FREQ_MASK) >> 
++                                      BACKLIGHT_MODULATION_FREQ_SHIFT;
++                      shift = BACKLIGHT_DUTY_CYCLE_SHIFT + 1;
++              } else {
++                      blc_pwm_ctl &= ~BACKLIGHT_DUTY_CYCLE_MASK;
++                      max_backlight = ((blc_pwm_ctl & BACKLIGHT_MODULATION_FREQ_MASK) >> 
++                                      BACKLIGHT_MODULATION_FREQ_SHIFT) * 2;
++                      shift = BACKLIGHT_DUTY_CYCLE_SHIFT;
++              }
++              level = (bclp * max_backlight) / 255;
++              I915_WRITE(BLC_PWM_CTL, blc_pwm_ctl | (level << shift));
++      }
+       asle->cblv = (bclp*0x64)/0xff | ASLE_CBLV_VALID;
+       return 0;
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-vblank-fix.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-i915-vblank-fix.patch
new file mode 100644 (file)
index 0000000..ef136c9
--- /dev/null
@@ -0,0 +1,26 @@
+diff --git a/drivers/gpu/drm/drm_irq.c b/drivers/gpu/drm/drm_irq.c
+index f85aaf2..2e5841e 100644
+--- a/drivers/gpu/drm/drm_irq.c
++++ b/drivers/gpu/drm/drm_irq.c
+@@ -412,6 +412,9 @@ int drm_vblank_get(struct drm_device *dev, int crtc)
+                       dev->vblank_enabled[crtc] = 1;
+                       drm_update_vblank_count(dev, crtc);
+               }
++      } else if (atomic_read(&dev->vblank_refcount[crtc]) > 1) {
++              atomic_dec(&dev->vblank_refcount[crtc]);
++              ret = -EINVAL;
+       }
+       spin_unlock_irqrestore(&dev->vbl_lock, irqflags);
+diff --git a/drivers/gpu/drm/i915/intel_display.c b/drivers/gpu/drm/i915/intel_display.c
+index 748ed50..9cb07a5 100644
+--- a/drivers/gpu/drm/i915/intel_display.c
++++ b/drivers/gpu/drm/i915/intel_display.c
+@@ -1549,6 +1549,7 @@ static void i9xx_crtc_dpms(struct drm_crtc *crtc, int mode)
+               /* Wait for vblank for the disable to take effect. */
+               intel_wait_for_vblank(dev);
++              dev->vblank_enabled[pipe] = 0;
+               temp = I915_READ(dpll_reg);
+               if ((temp & DPLL_VCO_ENABLE) != 0) {
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-kms-flip.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-kms-flip.patch
new file mode 100644 (file)
index 0000000..1b85ecb
--- /dev/null
@@ -0,0 +1,307 @@
+From 4e8354884daa2ee3e491bae69a81f85a2d1ca8ba Mon Sep 17 00:00:00 2001
+From: Fei Jiang <fei.jiang@intel.com>
+Date: Mon, 3 Aug 2009 11:31:53 -0400
+Subject: [PATCH] change for general drm code to implement kms-flip feature
+
+
+Signed-off-by: Fei Jiang <fei.jiang@intel.com>
+---
+ drivers/gpu/drm/drm_crtc.c |  128 ++++++++++++++++++++++++++++++++++++++++++++
+ drivers/gpu/drm/drm_drv.c  |    1 +
+ drivers/gpu/drm/drm_irq.c  |   30 ++++++++++
+ include/drm/drm.h          |    1 +
+ include/drm/drmP.h         |    9 +++
+ include/drm/drm_crtc.h     |   12 ++++
+ include/drm/drm_mode.h     |   16 ++++++
+ 7 files changed, 197 insertions(+), 0 deletions(-)
+
+diff --git a/drivers/gpu/drm/drm_crtc.c b/drivers/gpu/drm/drm_crtc.c
+index 8fab789..3ada446
+--- a/drivers/gpu/drm/drm_crtc.c
++++ b/drivers/gpu/drm/drm_crtc.c
+@@ -2452,3 +2452,131 @@ out:
+       mutex_unlock(&dev->mode_config.mutex);
+       return ret;
+ }
++
++/**
++ * drm_mode_page_flip_ioctl - page flip ioctl
++ * @dev: DRM device
++ * @data: ioctl args
++ * @file_priv: file private data
++ *
++ * The page flip ioctl replaces the current front buffer with a new
++ * one, using the CRTC's set_base function, which should just update
++ * the front buffer base pointer.  It's up to set_base to make
++ * sure the update doesn't result in tearing (on some hardware the
++ * base register is double buffered, so this is easy).
++ *
++ * Note that this covers just the simple case of flipping the front
++ * buffer immediately.  Interval handling and interlaced modes have to
++ * be handled by userspace, or with new ioctls.
++ */
++int drm_mode_page_flip_ioctl(struct drm_device *dev, void *data,
++                           struct drm_file *file_priv)
++{
++#if 0
++      struct drm_pending_flip *pending;
++#endif
++
++      struct drm_mode_page_flip *flip_data = data;
++      struct drm_mode_object *drm_obj, *fb_obj;
++      struct drm_crtc *crtc;
++      int ret = 0;
++
++      if (!(drm_core_check_feature(dev, DRIVER_MODESET)))
++              return -ENODEV;
++
++      /*
++       * Reject unknown flags so future userspace knows what we (don't)
++       * support
++       */
++      if (flip_data->flags & (~DRM_MODE_PAGE_FLIP_FLAGS_MASK)) {
++              DRM_DEBUG("bad page flip flags\n");
++              return -EINVAL;
++      }
++#if 0
++      pending = kzalloc(sizeof *pending, GFP_KERNEL);
++      if (pending == NULL)
++              return -ENOMEM;
++#endif
++      mutex_lock(&dev->struct_mutex);
++
++      fb_obj = drm_mode_object_find(dev, flip_data->fb_id,
++                                    DRM_MODE_OBJECT_FB);
++      if (!fb_obj) {
++              DRM_DEBUG("unknown fb %d\n", flip_data->fb_id);
++              ret = -ENOENT;
++              goto out_unlock;
++      }
++
++      drm_obj = drm_mode_object_find(dev, flip_data->crtc_id,
++                                     DRM_MODE_OBJECT_CRTC);
++      if (!drm_obj) {
++              DRM_DEBUG("unknown crtc %d\n", flip_data->crtc_id);
++              ret = -ENOENT;
++              goto out_unlock;
++      }
++      crtc = obj_to_crtc(drm_obj);
++      if (!crtc->enabled) {
++              DRM_DEBUG("crtc %d not enabled\n", flip_data->crtc_id);
++              ret = -EINVAL;
++              goto out_unlock;
++      }
++      
++#if 0
++      if (crtc->fb->funcs->unpin == NULL) {
++              DRM_DEBUG("fb for crtc %d does not support delayed unpin\n",
++                        flip_data->crtc_id);
++              ret = -ENODEV;
++              goto out_unlock;
++      }
++
++      pending->crtc = crtc;
++      pending->old_fb = crtc->fb;
++      pending->pipe = crtc->pipe;
++      pending->event.base.type = DRM_EVENT_MODE_PAGE_FLIP;
++      pending->event.base.length = sizeof pending->event;
++      pending->event.user_data = flip_data->user_data;
++      pending->pending_event.event = &pending->event.base;
++      pending->pending_event.file_priv = file_priv;
++      pending->pending_event.destroy =
++              (void (*) (struct drm_pending_event *)) kfree;
++
++      /* Get vblank ref for completion handling */
++      ret = drm_vblank_get(dev, crtc->pipe);
++      if (ret) {
++              DRM_DEBUG("failed to take vblank ref\n");
++              goto out_unlock;
++      }
++
++      pending->frame = drm_vblank_count(dev, crtc->pipe);
++      list_add_tail(&pending->link, &dev->flip_list);
++#endif
++
++      /*
++       * The set_base call will change the domain on the new fb,
++       * which will force the rendering to finish and block the
++       * ioctl.  We need to do this last part from a work queue, to
++       * avoid blocking userspace here.
++       */
++      crtc->fb = obj_to_fb(fb_obj);
++retry_set:
++      ret = (*crtc->funcs->set_base)(crtc, 0, 0, NULL);
++      if (ret == -ERESTARTSYS)
++              goto retry_set;
++
++      if (ret) {
++              DRM_ERROR("set_base failed: %d\n", ret);
++              goto out_unlock;
++      }
++
++      mutex_unlock(&dev->struct_mutex);
++
++      return 0;
++
++out_unlock:
++      mutex_unlock(&dev->struct_mutex);
++#if 0
++      kfree(pending);
++#endif
++      return ret;
++}
++
+diff --git a/drivers/gpu/drm/drm_drv.c b/drivers/gpu/drm/drm_drv.c
+index 1ce7977..761c2ec
+--- a/drivers/gpu/drm/drm_drv.c
++++ b/drivers/gpu/drm/drm_drv.c
+@@ -145,6 +145,7 @@ static struct drm_ioctl_desc drm_ioctls[] = {
+       DRM_IOCTL_DEF(DRM_IOCTL_MODE_GETFB, drm_mode_getfb, DRM_MASTER|DRM_CONTROL_ALLOW),
+       DRM_IOCTL_DEF(DRM_IOCTL_MODE_ADDFB, drm_mode_addfb, DRM_MASTER|DRM_CONTROL_ALLOW),
+       DRM_IOCTL_DEF(DRM_IOCTL_MODE_RMFB, drm_mode_rmfb, DRM_MASTER|DRM_CONTROL_ALLOW),
++      DRM_IOCTL_DEF(DRM_IOCTL_MODE_PAGE_FLIP, drm_mode_page_flip_ioctl, DRM_MASTER|DRM_CONTROL_ALLOW),
+ };
+ #define DRM_CORE_IOCTL_COUNT  ARRAY_SIZE( drm_ioctls )
+diff --git a/drivers/gpu/drm/drm_irq.c b/drivers/gpu/drm/drm_irq.c
+index b4a3dbc..d5104df
+--- a/drivers/gpu/drm/drm_irq.c
++++ b/drivers/gpu/drm/drm_irq.c
+@@ -71,6 +71,28 @@ int drm_irq_by_busid(struct drm_device *dev, void *data,
+       return 0;
+ }
++#if 0
++static void drm_flip_work_func(struct work_struct *work)
++{
++      struct drm_device *dev =
++              container_of(work, struct drm_device, flip_work);
++#if 0 
++      struct drm_pending_flip *f, *t;
++#endif
++      u32 frame;
++
++      mutex_lock(&dev->struct_mutex);
++
++      list_for_each_entry_safe(f, t, &dev->flip_list, link) {
++              frame = drm_vblank_count(dev, f->pipe);
++              if (vblank_after(frame, f->frame))
++                      drm_finish_pending_flip(dev, f, frame);
++      }
++
++      mutex_unlock(&dev->struct_mutex);
++}
++#endif
++
+ static void vblank_disable_fn(unsigned long arg)
+ {
+       struct drm_device *dev = (struct drm_device *)arg;
+@@ -161,6 +183,11 @@ int drm_vblank_init(struct drm_device *dev, int num_crtcs)
+               atomic_set(&dev->vblank_refcount[i], 0);
+       }
++#if 0
++      INIT_LIST_HEAD(&dev->flip_list);
++      INIT_WORK(&dev->flip_work, drm_flip_work_func);
++#endif
++
+       dev->vblank_disable_allowed = 0;
+       return 0;
+@@ -626,5 +653,8 @@ void drm_handle_vblank(struct drm_device *dev, int crtc)
+ {
+       atomic_inc(&dev->_vblank_count[crtc]);
+       DRM_WAKEUP(&dev->vbl_queue[crtc]);
++#if 0 
++      schedule_work(&dev->flip_work);
++#endif
+ }
+ EXPORT_SYMBOL(drm_handle_vblank);
+diff --git a/include/drm/drm.h b/include/drm/drm.h
+index 7cb50bd..78bd91b
+--- a/include/drm/drm.h
++++ b/include/drm/drm.h
+@@ -686,6 +686,7 @@ struct drm_gem_open {
+ #define DRM_IOCTL_MODE_GETFB          DRM_IOWR(0xAD, struct drm_mode_fb_cmd)
+ #define DRM_IOCTL_MODE_ADDFB          DRM_IOWR(0xAE, struct drm_mode_fb_cmd)
+ #define DRM_IOCTL_MODE_RMFB           DRM_IOWR(0xAF, unsigned int)
++#define DRM_IOCTL_MODE_PAGE_FLIP      DRM_IOW( 0xB0, struct drm_mode_page_flip)
+ /**
+  * Device specific ioctls should only be in their respective headers
+diff --git a/include/drm/drmP.h b/include/drm/drmP.h
+index c5122bf..36f9e6a
+--- a/include/drm/drmP.h
++++ b/include/drm/drmP.h
+@@ -976,6 +976,15 @@ struct drm_device {
+       cycles_t ctx_start;
+       cycles_t lck_start;
++      struct work_struct flip_work;
++
++#if 0
++      /**
++       * List of objects waiting on flip completion
++       */
++      struct list_head flip_list;     
++#endif
++
+       struct fasync_struct *buf_async;/**< Processes waiting for SIGIO */
+       wait_queue_head_t buf_readers;  /**< Processes waiting to read */
+       wait_queue_head_t buf_writers;  /**< Processes waiting to ctx switch */
+diff --git a/include/drm/drm_crtc.h b/include/drm/drm_crtc.h
+index 7300fb8..742c870
+--- a/include/drm/drm_crtc.h
++++ b/include/drm/drm_crtc.h
+@@ -331,6 +331,16 @@ struct drm_crtc_funcs {
+       void (*destroy)(struct drm_crtc *crtc);
+       int (*set_config)(struct drm_mode_set *set);
++
++              /*
++       * Move the crtc on the current fb to the given position.
++       * This function is optional.  If old_fb is provided, the
++       * function will wait for vblank and unpin it.  If old_fb is
++       * NULL, nothing is unpinned and the caller must call
++       * mode_unpin_fb to release the old framebuffer.
++       */
++      int (*set_base)(struct drm_crtc *crtc, int x, int y,
++                      struct drm_framebuffer *old_fb);
+ };
+ /**
+@@ -736,4 +746,6 @@ extern int drm_mode_gamma_get_ioctl(struct drm_device *dev,
+ extern int drm_mode_gamma_set_ioctl(struct drm_device *dev,
+                                   void *data, struct drm_file *file_priv);
+ extern bool drm_detect_hdmi_monitor(struct edid *edid);
++extern int drm_mode_page_flip_ioctl(struct drm_device *dev, void *data,
++                                  struct drm_file *file_priv);
+ #endif /* __DRM_CRTC_H__ */
+diff --git a/include/drm/drm_mode.h b/include/drm/drm_mode.h
+index ae304cc..464b779
+--- a/include/drm/drm_mode.h
++++ b/include/drm/drm_mode.h
+@@ -265,4 +265,20 @@ struct drm_mode_crtc_lut {
+       __u64 blue;
+ };
++#define DRM_MODE_PAGE_FLIP_WAIT               (1<<0) /* block on previous page flip */
++#define DRM_MODE_PAGE_FLIP_FLAGS_MASK (DRM_MODE_PAGE_FLIP_WAIT)
++
++struct drm_mode_page_flip {
++      /** Handle of new front buffer */
++      __u32 fb_id;
++      __u32 crtc_id;
++
++      /* 64 bit cookie returned to userspace in the page flip event. */
++      __u64 user_data;
++      /**
++       * page flip flags (wait on flip only for now)
++       */
++      __u32 flags;
++};
++
+ #endif
+-- 
+1.5.3.4
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-mem-info.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-drm-mem-info.patch
new file mode 100644 (file)
index 0000000..3b9463f
--- /dev/null
@@ -0,0 +1,140 @@
+From 5deab387f5b9ec79a6bf7edc52b0653c2a6d44b5 Mon Sep 17 00:00:00 2001
+From: Alan Olsen <alan.r.olsen@intel.com>
+Date: Fri, 11 Sep 2009 15:57:46 -0700
+Subject: [PATCH] linux-2.6.31-drm-mem-info.patch
+
+Signed-off-by: Alan Olsen <alan.r.olsen@intel.com>
+---
+ drivers/gpu/drm/Makefile   |    4 +++
+ drivers/gpu/drm/drm_info.c |   58 ++++++++++++++++++++++++++++++++++++++++++++
+ drivers/gpu/drm/drm_proc.c |    2 +
+ include/drm/drmP.h         |    2 +
+ 4 files changed, 66 insertions(+), 0 deletions(-)
+
+diff --git a/drivers/gpu/drm/Makefile b/drivers/gpu/drm/Makefile
+index fe23f29..d76f167 100644
+--- a/drivers/gpu/drm/Makefile
++++ b/drivers/gpu/drm/Makefile
+@@ -4,6 +4,10 @@
+ ccflags-y := -Iinclude/drm
++ifeq ($(CONFIG_DRM_PSB),y)
++      ccflags-y += -Idrivers/gpu/drm/psb
++endif
++
+ drm-y       :=        drm_auth.o drm_bufs.o drm_cache.o \
+               drm_context.o drm_dma.o drm_drawable.o \
+               drm_drv.o drm_fops.o drm_gem.o drm_ioctl.o drm_irq.o \
+diff --git a/drivers/gpu/drm/drm_info.c b/drivers/gpu/drm/drm_info.c
+index f0f6c6b..0ecc778 100644
+--- a/drivers/gpu/drm/drm_info.c
++++ b/drivers/gpu/drm/drm_info.c
+@@ -36,6 +36,10 @@
+ #include <linux/seq_file.h>
+ #include "drmP.h"
++#ifdef CONFIG_DRM_PSB
++#include "psb/psb_drv.h"
++#endif
++
+ /**
+  * Called when "/proc/dri/.../name" is read.
+  *
+@@ -211,6 +215,33 @@ int drm_vblank_info(struct seq_file *m, void *data)
+       return 0;
+ }
++int drm_gem_object_mem_info(int id, void *ptr, void *data)
++{
++      struct drm_gem_object *obj = ptr;
++      struct seq_file *m = data;
++
++      seq_printf(m, "object 0x%p    name %2d    memory %8zd\n", 
++                 obj, obj->name, obj->size);
++
++      return 0;
++}
++
++int drm_gem_clients_info(struct seq_file *m, void *data)
++{
++      struct drm_info_node *node = (struct drm_info_node *) m->private;
++      struct drm_device *dev = node->minor->dev;
++      struct drm_file *priv;
++
++      mutex_lock(&dev->struct_mutex);
++      list_for_each_entry(priv, &dev->filelist, lhead) {
++              seq_printf(m, "pid %5d \n", priv->pid);
++              idr_for_each(&priv->object_idr, &drm_gem_object_mem_info, m);
++              seq_printf(m, "\n");
++      }
++      mutex_unlock(&dev->struct_mutex);
++      return 0;
++}
++
+ /**
+  * Called when "/proc/dri/.../clients" is read.
+  *
+@@ -273,6 +304,33 @@ int drm_gem_object_info(struct seq_file *m, void* data)
+       return 0;
+ }
++#ifdef CONFIG_DRM_PSB
++int drm_ttm_mem_info(struct seq_file *m, void* data)
++{
++      struct drm_info_node *node = (struct drm_info_node *) m->private;
++      struct drm_device *dev = node->minor->dev;
++
++      if (!strncmp("psb", dev->devname, 3)) {
++              struct ttm_bo_device *bdev = &psb_priv(dev)->bdev;
++              struct ttm_mem_global *glob = bdev->mem_glob;
++
++              spin_lock(&glob->lock);
++              seq_printf(m, "used memory %llu \n", glob->used_memory);
++              seq_printf(m, "used total memory %llu \n", glob->used_total_memory);
++              spin_unlock(&glob->lock);
++      } else {
++              seq_printf(m, "This is not a PSB device, no ttm mem info available\n");
++      }
++      return 0;
++}
++#else
++int drm_ttm_mem_info(struct seq_file *m, void* data)
++{
++      seq_printf(m, "ttm is not used\n");
++      return 0;
++}
++#endif
++
+ #if DRM_DEBUG_CODE
+ int drm_vma_info(struct seq_file *m, void *data)
+diff --git a/drivers/gpu/drm/drm_proc.c b/drivers/gpu/drm/drm_proc.c
+index bbd4b3d..26e64ec 100644
+--- a/drivers/gpu/drm/drm_proc.c
++++ b/drivers/gpu/drm/drm_proc.c
+@@ -55,6 +55,8 @@ static struct drm_info_list drm_proc_list[] = {
+       {"bufs", drm_bufs_info, 0},
+       {"gem_names", drm_gem_name_info, DRIVER_GEM},
+       {"gem_objects", drm_gem_object_info, DRIVER_GEM},
++      {"gem_clients", drm_gem_clients_info, DRIVER_GEM},
++      {"ttm_meminfo", drm_ttm_mem_info, 0},
+ #if DRM_DEBUG_CODE
+       {"vma", drm_vma_info, 0},
+ #endif
+diff --git a/include/drm/drmP.h b/include/drm/drmP.h
+index dbd40f1..5575b9a 100644
+--- a/include/drm/drmP.h
++++ b/include/drm/drmP.h
+@@ -1355,6 +1355,8 @@ extern int drm_vblank_info(struct seq_file *m, void *data);
+ extern int drm_clients_info(struct seq_file *m, void* data);
+ extern int drm_gem_name_info(struct seq_file *m, void *data);
+ extern int drm_gem_object_info(struct seq_file *m, void* data);
++extern int drm_gem_clients_info(struct seq_file *m, void *data);
++extern int drm_ttm_mem_info(struct seq_file *m, void* data);
+ #if DRM_DEBUG_CODE
+ extern int drm_vma_info(struct seq_file *m, void *data);
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-iegd.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-iegd.patch
new file mode 100644 (file)
index 0000000..fa6a3ea
--- /dev/null
@@ -0,0 +1,9290 @@
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/Kconfig patch_script_temp/drivers/gpu/drm/Kconfig
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/Kconfig        2009-08-27 11:30:10.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/Kconfig  2009-10-06 10:30:05.000000000 -0700
+@@ -154,3 +154,10 @@
+           Choose this option if you have a Poulsbo or Moorestown platform.
+           If M is selected the module will be called psb.
++
++config IEGD
++      tristate "Intel IEGD"
++      depends on DRM
++      help
++        Choose this option for the Intel Embedded Graphics Driver (IEGD)
++
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/Makefile patch_script_temp/drivers/gpu/drm/Makefile
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/Makefile       2009-08-27 11:30:10.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/Makefile 2009-10-06 10:30:05.000000000 -0700
+@@ -32,3 +32,4 @@
+ obj-$(CONFIG_DRM_SIS)   += sis/
+ obj-$(CONFIG_DRM_SAVAGE)+= savage/
+ obj-$(CONFIG_DRM_VIA) +=via/
++obj-$(CONFIG_IEGD)      += iegd/
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/Makefile patch_script_temp/drivers/gpu/drm/iegd/Makefile
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/Makefile  1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/Makefile    2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,9 @@
++
++
++ccflags-y := -Idrivers/gpu/drm/iegd/include
++ccflags-y += -Idrivers/char/agp -Iinclude/drm
++
++iegd_mod-objs := agp/pci.o agp/global.o agp/drv_alm.o agp/drv_nap.o agp/drv_plb.o agp/drv_cmn.o agp/drv_gn4.o drm/iegd_drv.o drm/iegd_interface.o drm/iegd_interface_265.o drm/iegd_interface_2611.o drm/iegd_interface_2615.o drm/iegd_interface_2624.o drm/psb_irq.o 
++
++obj-$(CONFIG_IEGD) += iegd_mod.o
++
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/agp_test.c patch_script_temp/drivers/gpu/drm/iegd/agp/agp_test.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/agp_test.c    1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/agp/agp_test.c      2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,314 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: agp_test.c
++ * $Revision: 1.5 $
++ *----------------------------------------------------------------------------
++ * Unit level test for IEGD AGP
++ * Copyright Â© 2009 Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++#include <fcntl.h>
++#include <unistd.h>
++#include <sys/ioctl.h>
++#include <stdlib.h>
++#include <stdio.h>
++#include <linux/agpgart.h>
++#include <sys/mman.h>
++
++/*#define PAGE_SIZE 1024*/
++
++#define VERBOSE "-v"
++
++int verbose = 0;
++int file_desc, temp, length;
++unsigned char *mmap_gart;
++
++int init_agp(void)
++{
++      agp_info info;
++      agp_setup setup;
++      
++      if (verbose)
++      {
++              printf("Testing ioctl AGPIOC_ACQUIRE.\n");      
++      }
++      if(ioctl(file_desc, AGPIOC_ACQUIRE) != 0)
++      {
++              printf("Error on AGPIOC_ACQUIRE.\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++      if (verbose)
++      {
++              printf("Testing ioctl call for info init\n");
++      }
++      if(ioctl(file_desc, AGPIOC_INFO, &info) != 0)
++      {
++              printf("Error on AGPIOC_INFO\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++      if (verbose)
++      {
++              printf("Testing init info\n version:%i.%i,\n id:0x%lx,\n mode:0x%lx,\n" 
++               " base:0x%lx,\n size:%i,\n total mem:%i,\n system mem:%i,\n"
++               " used mem:%i\n", info.version.major, info.version.minor, 
++               info.bridge_id, info.agp_mode, info.aper_base, info.aper_size, 
++               info.pg_total, info.pg_system, info.pg_used);
++      
++              printf("Testing mmap the device\n");
++      }
++      length = info.aper_size*0x100000;
++      mmap_gart = mmap(NULL, info.aper_size*0x100000, 
++       PROT_READ | PROT_WRITE, MAP_SHARED, file_desc, 0);
++      if(mmap_gart == (unsigned char *) 0xFFFFFFFF)
++      {
++              printf("Error on mmap\n");
++              printf("Reinstall IKM.\n");
++              close(file_desc);
++              exit(-1);
++      }       
++
++      setup.agp_mode = info.agp_mode;
++      if (verbose)
++      {
++              printf("Testing ioctl AGPIOC_SETUP\n");
++      }
++      if(ioctl(file_desc, AGPIOC_SETUP, &setup) != 0)
++      {
++              printf("Error on AGPIOC_SETUP\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++}
++
++void gart_unbind(int key)
++{
++      agp_unbind unbind;
++      unbind.key = key;
++      unbind.priority = 0;
++      if (verbose)
++      {
++              printf("Testing ioctl AGPIOC_UNBIND\n");
++      }
++      if(ioctl(file_desc, AGPIOC_UNBIND, &unbind) != 0)
++      {
++              printf("Error on AGPIOC_UNBIND\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++}
++
++void gart_bind(int key)
++{
++      agp_bind bind;  
++      bind.key = key;
++      agp_info info;
++
++      int page_size = 4000;
++      int aper_size, gtt_entries, bind_error;
++
++      if(ioctl(file_desc, AGPIOC_INFO, &info) != 0)
++      {
++              printf("Error on AGPIOC_INFO\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++      aper_size = info.aper_size;
++      gtt_entries = aper_size*1000000/page_size;
++      if (verbose)
++      {
++              printf("max memory: %i\n", gtt_entries);
++      }
++
++      do
++      {
++              bind_error = 0;         
++              bind.pg_start = page_size;
++              printf("Testing ioctl AGPIOC_BIND\n");
++              if(ioctl(file_desc, AGPIOC_BIND, &bind) != 0)
++              {
++                      if (page_size < gtt_entries)
++                      {
++                              page_size = page_size+4000;
++                              printf("Trying new address for bind %i.\n", page_size);
++                              bind_error = 1;
++                      }
++                      else
++                      {
++                              printf("Error on AGPIOC_BIND\n");
++                              printf("Reinstall IKM.");
++                              exit(-1);
++                      }
++              }
++      } while (bind_error);
++      printf("Sucessful bind.\n");
++}
++
++int gart_alloc(int count)
++{
++      agp_allocate allocate;
++      
++      allocate.type = 0;
++      allocate.pg_count = count;
++      if (verbose)
++      {
++              printf("Testing ioctl AGPIOC_ALLOCATE\n");
++      }
++      if(ioctl(file_desc, AGPIOC_ALLOCATE, &allocate) != 0)
++      {
++              printf("Error on AGPIOC_ALLOCATE\n");
++              printf("Reinstall IKM.");
++              exit(-1);
++      }
++
++      gart_bind(allocate.key);
++      
++      return(allocate.key);
++}
++
++void gart_free(int key)
++{
++      
++      gart_unbind(key);       
++      if (verbose)
++      {       
++              printf("Testing ioctl AGPIOC_DEALLOCATE\n");    
++      }
++      if(ioctl(file_desc, AGPIOC_DEALLOCATE, key) != 0)
++      {
++              printf("Error on AGPIOC_DEALLOCATE\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++}
++
++int main(int argc, char *argv[])
++{
++      /* Check for verbose mode */    
++      int i, key, key1;
++      agp_info info;  
++      
++      for (i = 1; i < argc; i++)
++      {
++              if(strcmp(argv[1], VERBOSE) == 0)
++              {
++                      verbose = 1;
++                      printf("Verbose mode.\n");
++              }
++      }       
++      
++      /* Open the agpgart */
++      file_desc=open("/dev/agpgart",O_RDWR);
++
++      if(file_desc<0){
++              printf("Cannot open device file:%d\n",file_desc);
++              printf("Check for root level permissions.");
++              exit(-1);
++      }
++      
++      if (verbose)
++      {
++              printf("Open device file:%d\n",file_desc);
++              /* This the ioctl that allocates physical memory */
++              printf("Testing ioctl for memory allocation\n");
++      }
++
++      init_agp();
++
++      key = gart_alloc(64);
++      key1 = gart_alloc(0);
++      if (verbose)
++      {
++              printf("Testing ioctl call for info\n");
++      }
++      if(ioctl(file_desc, AGPIOC_INFO, &info) != 0)
++      {
++              close(file_desc);               
++              printf("Error on AGPIOC_INFO\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++      
++      if (verbose)
++      {
++              printf("Testing init info\n version:%i.%i,\n id:0x%lx,\n mode:0x%lx,\n" 
++               " base:0x%lx,\n size:%i,\n total mem:%i,\n system mem:%i,\n"
++               " used mem:%i\n", info.version.major, info.version.minor, 
++               info.bridge_id, info.agp_mode, info.aper_base, info.aper_size, 
++               info.pg_total, info.pg_system, info.pg_used);
++      }
++      
++      gart_free(key);
++      gart_free(key1);
++
++      if (munmap(mmap_gart, length) < 0)
++      {
++              close(file_desc);               
++              printf("Error on munmap\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++      
++      if (verbose)
++      {
++              printf("Testing ioctl AGPIOC_RELEASE\n");
++      }
++      if(ioctl(file_desc, AGPIOC_RELEASE) != 0)
++      {
++              close(file_desc);               
++              printf("Error on AGPIOC_RELEASE\n");
++              printf("Reinstall IKM.");
++              exit(-1);
++      }
++
++      printf("AGPGART successfully loaded\n");
++      
++      close(file_desc);
++      
++      return 0;
++      
++
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_alm.c patch_script_temp/drivers/gpu/drm/iegd/agp/drv_alm.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_alm.c     1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/agp/drv_alm.c       2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,447 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: drv_alm.c
++ * $Revision: 1.7 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++#include "global.h"
++#include "intelpci.h"
++
++static int iegd_alm_configure(void);
++static int iegd_alm_fetch_size(void);
++static void iegd_alm_cleanup(void);
++static void iegd_alm_tlbflush(struct agp_memory *mem);
++
++static int iegd_alm_insert_entries(
++      struct agp_memory *mem,
++      off_t pg_start,
++      int type);
++
++static int iegd_alm_remove_entries(
++      struct agp_memory *mem,
++      off_t pg_start,
++      int type);
++
++struct aper_size_info_fixed intel_i830_sizes[] =
++{
++      {128, 32768, 5},
++      /* The 64M mode still requires a 128k gatt */
++      {64, 16384, 5},
++      {256, 65536, 6},
++      {512, 131072, 7},
++};
++
++struct aper_size_info_fixed intel_i810_sizes[] =
++{
++      {64, 16384, 4},
++      {32, 8192,  4},
++};
++
++bridge_driver_t drv_alm = {
++      .owner              = THIS_MODULE,
++      .size_type          = FIXED_APER_SIZE,
++      .aperture_sizes     = 0,
++      .num_aperture_sizes = 0,
++      .needs_scratch_page = TRUE,
++      .configure          = iegd_alm_configure,
++      .fetch_size         = iegd_alm_fetch_size,
++      .cleanup            = iegd_alm_cleanup,
++      .tlb_flush          = iegd_alm_tlbflush,
++      .mask_memory        = iegd_cmn_mask_memory,
++      .masks              = iegd_cmn_masks,
++      .agp_enable         = iegd_cmn_agp_enable,
++      .cache_flush        = global_cache_flush,
++      .create_gatt_table  = NULL,
++      .free_gatt_table    = NULL,
++      .insert_memory      = iegd_alm_insert_entries,
++      .remove_memory      = iegd_alm_remove_entries,
++      .alloc_by_type      = iegd_cmn_alloc_by_type,
++      .free_by_type       = iegd_cmn_free_by_type,
++      .agp_alloc_page     = agp_generic_alloc_page,
++      .agp_destroy_page   = agp_generic_destroy_page,
++};
++
++static int iegd_alm_configure(void)
++{
++      struct aper_size_info_fixed *current_size;
++      u32 temp;
++      u16 gmch_ctrl;
++      int i;
++      int entries_start = 0;
++
++      AGN_DEBUG("Enter");
++
++      current_size = A_SIZE_FIX(agp_bridge->current_size);
++
++      if(private_data.pdev->device == PCI_DEVICE_ID_810   ||
++         private_data.pdev->device == PCI_DEVICE_ID_810DC ||
++         private_data.pdev->device == PCI_DEVICE_ID_810E  ||
++         private_data.pdev->device == PCI_DEVICE_ID_815) {
++
++              pci_read_config_dword(private_data.pdev, I810_MMADDR, &temp);
++              temp &= 0xfff80000;
++
++              private_data.registers = ioremap(temp, 128*4096);
++              if(!private_data.registers) {
++                      AGN_ERROR("Unable to remap memory");
++                      return -ENOMEM;
++              }
++
++              if((readl(private_data.registers+I810_DRAM_CTL)
++                              & I810_DRAM_ROW_0) == I810_DRAM_ROW_0_SDRAM) {
++                      AGN_LOG("Detected 4MB dedicated video RAM.");
++                      private_data.num_dcache_entries = 1024;
++              }
++      } else if(private_data.pdev->device == PCI_DEVICE_ID_830M ||
++                        private_data.pdev->device == PCI_DEVICE_ID_845G ||
++                        private_data.pdev->device == PCI_DEVICE_ID_855  ||
++                        private_data.pdev->device == PCI_DEVICE_ID_865G) {
++
++              entries_start = private_data.gtt_entries;
++              pci_read_config_word(agp_bridge->dev, I830_GMCH_CTRL, &gmch_ctrl);
++              gmch_ctrl |= I830_GMCH_ENABLED;
++              pci_write_config_word(agp_bridge->dev,I830_GMCH_CTRL,gmch_ctrl);
++      }
++
++      /* Get based address of the graphic aperture */
++      pci_read_config_dword(private_data.pdev, I810_GMADDR, &temp);
++      agp_bridge->gart_bus_addr = (temp & PCI_BASE_ADDRESS_MEM_MASK);
++
++      /* Write the based address of the gtt table to the
++       * page table control register */
++      writel(agp_bridge->gatt_bus_addr | I810_PGETBL_ENABLED,
++                      private_data.registers+I810_PGETBL_CTL);
++      readl(private_data.registers+I810_PGETBL_CTL);
++
++      if (agp_bridge->driver->needs_scratch_page) {
++              for (i = entries_start; i < current_size->num_entries; i++) {
++                      writel(agp_bridge->scratch_page,
++                                      private_data.registers+I810_PTE_BASE+(i*4));
++                      /* PCI Posting. */
++                      readl(private_data.registers+I810_PTE_BASE+(i*4));
++              }
++      }
++
++      global_cache_flush();
++
++      AGN_DEBUG("Exit");
++      return 0;
++}
++
++
++static int iegd_alm_fetch_size(void)
++{
++      u32 smram_miscc;
++      u16 gmch_ctrl;
++      struct aper_size_info_fixed *values;
++
++      AGN_DEBUG("Enter");
++
++      values = A_SIZE_FIX(agp_bridge->driver->aperture_sizes);
++
++      if(private_data.pdev->device == PCI_DEVICE_ID_810   ||
++         private_data.pdev->device == PCI_DEVICE_ID_810DC ||
++         private_data.pdev->device == PCI_DEVICE_ID_810E  ||
++         private_data.pdev->device == PCI_DEVICE_ID_815) {
++
++              pci_read_config_dword(agp_bridge->dev, I810_SMRAM_MISCC,
++                              &smram_miscc);
++
++              if ((smram_miscc & I810_GMS) == I810_GMS_DISABLE) {
++                      printk(KERN_WARNING PFX "i810 is disabled\n");
++                      return 0;
++              }
++              if ((smram_miscc & I810_GFX_MEM_WIN_SIZE) ==
++                              I810_GFX_MEM_WIN_32M) {
++                      agp_bridge->previous_size =
++                              agp_bridge->current_size = (void *) (values + 1);
++                      agp_bridge->aperture_size_idx = 1;
++                      return values[1].size;
++              } else {
++                      agp_bridge->previous_size =
++                              agp_bridge->current_size = (void *) (values);
++                      agp_bridge->aperture_size_idx = 0;
++                      return values[0].size;
++              }
++      } else if(private_data.pdev->device == PCI_DEVICE_ID_830M ||
++                        private_data.pdev->device == PCI_DEVICE_ID_845G ||
++                        private_data.pdev->device == PCI_DEVICE_ID_855  ||
++                        private_data.pdev->device == PCI_DEVICE_ID_865G) {
++
++              if (agp_bridge->dev->device != PCI_DEVICE_ID_INTEL_82830_HB &&
++                      agp_bridge->dev->device != PCI_DEVICE_ID_INTEL_82845G_HB) {
++                      /* 855GM/852GM/865G has 128MB aperture size */
++                      agp_bridge->previous_size =
++                              agp_bridge->current_size = (void *) values;
++                      agp_bridge->aperture_size_idx = 0;
++                      return values[0].size;
++              }
++
++              pci_read_config_word(agp_bridge->dev,I830_GMCH_CTRL,&gmch_ctrl);
++
++              if ((gmch_ctrl & I830_GMCH_MEM_MASK) == I830_GMCH_MEM_128M) {
++                      agp_bridge->previous_size =
++                              agp_bridge->current_size = (void *) values;
++                      agp_bridge->aperture_size_idx = 0;
++                      return values[0].size;
++              } else {
++                      agp_bridge->previous_size =
++                              agp_bridge->current_size = (void *) (values + 1);
++                      agp_bridge->aperture_size_idx = 1;
++                      return values[1].size;
++              }
++      }
++
++      AGN_DEBUG("Exit");
++
++      return 0;
++}
++
++static void iegd_alm_cleanup(void)
++{
++
++      AGN_DEBUG("Enter");
++
++      if(private_data.pdev->device == PCI_DEVICE_ID_810   ||
++         private_data.pdev->device == PCI_DEVICE_ID_810DC ||
++         private_data.pdev->device == PCI_DEVICE_ID_810E  ||
++         private_data.pdev->device == PCI_DEVICE_ID_815) {
++
++              writel(0, private_data.registers+I810_PGETBL_CTL);
++              readl(private_data.registers);  /* PCI Posting. */
++      }
++
++      /* Unmap the mapping of the mmio */
++      iounmap((void *) private_data.registers);
++
++      AGN_DEBUG("Exit");
++}
++
++static void iegd_alm_tlbflush(struct agp_memory *mem)
++{
++      AGN_DEBUG("Enter");
++      return;
++      AGN_DEBUG("Exit");
++}
++
++int AGP_CREATE_GATT(iegd_alm_create_gatt_table)
++{
++      int num_entries         = 0;
++      int i830_gtt_page_order = 0;
++      u32 gtt_bus_addr        = 0;
++      u32 mmio_bus_addr       = 0;
++      char *gtt_table         = NULL;
++      char *gtt_table_end     = NULL;
++      char *current_entry     = NULL;
++      int gtt_enabled         = FALSE;
++      struct page *gtt_table_page            = NULL;
++      struct aper_size_info_fixed *aper_size = NULL;
++
++      AGN_DEBUG("Enter");
++
++      agp_bridge->gatt_table_real = NULL;
++      agp_bridge->gatt_table      = NULL;
++      aper_size = (struct aper_size_info_fixed *)agp_bridge->current_size;
++
++      /* Find and save the address of the MMIO registers */
++      pci_read_config_dword(private_data.pdev, I810_MMADDR,
++              &mmio_bus_addr);
++      mmio_bus_addr &= 0xFFF80000;
++
++      private_data.registers = (volatile u8 *)
++              ioremap(mmio_bus_addr, 128 * 4096);
++
++      if (!private_data.registers) {
++              AGN_ERROR("ioremap failed to map");
++              return (-ENOMEM);
++      }
++
++      /* Get value on the control register */
++      gtt_bus_addr = readl(private_data.registers+I810_PGETBL_CTL) &
++              0xFFFFF000;
++      gtt_enabled = readl(private_data.registers+I810_PGETBL_CTL) &
++              I810_PGETBL_ENABLED;
++      global_cache_flush();
++
++      /* we have to call this as early as possible after the MMIO base address
++       * is known */
++      iegd_cmn_init_gtt_entries();
++
++      /* If GTT does not exist, which can happen if a PCI graphics card is the
++       * boot-up display device, then we will have to allocate the GTT table
++       * ourselves
++       */
++      if (!gtt_enabled) {
++
++              AGN_DEBUG("Gtt is disabled");
++
++              i830_gtt_page_order = aper_size->page_order;
++              num_entries = aper_size->num_entries;
++              gtt_table = (char *) __get_free_pages(
++                              GFP_KERNEL, i830_gtt_page_order);
++              gtt_table_end = gtt_table +
++                      ((PAGE_SIZE * (1<<i830_gtt_page_order)) - 1);
++
++              /* Make sure allocation was successful */
++              if (NULL == gtt_table) {
++                      AGN_ERROR("Fail to allocate kernel memory");
++                      return -ENOMEM;
++              }
++
++              for (current_entry = gtt_table; current_entry < gtt_table_end;
++                      current_entry += PAGE_SIZE) {
++                      gtt_table_page = virt_to_page(current_entry);
++                      set_bit(PG_reserved, &gtt_table_page->flags);
++              }
++              agp_bridge->gatt_bus_addr = virt_to_phys(gtt_table);
++      } else {
++              agp_bridge->gatt_bus_addr = gtt_bus_addr;
++      }
++
++      AGN_DEBUG("Exit");
++      return(0);
++}
++
++
++static int iegd_alm_insert_entries(
++      struct agp_memory *mem,
++      off_t pg_start,
++      int type)
++{
++      int i, j, num_entries;
++      void *temp;
++
++      AGN_DEBUG("Enter");
++
++      temp = agp_bridge->current_size;
++      num_entries = A_SIZE_FIX(temp)->num_entries;
++
++      if ((pg_start + mem->page_count) > num_entries) {
++              AGN_ERROR("Trying to write beyond aperture limit");
++              AGN_DEBUG("pg_start=0x%.8lx, mem->page_count=%d,"
++                              "num_entries=%d", pg_start, mem->page_count,
++                              num_entries);
++              return -EINVAL;
++      }
++
++      if(private_data.pdev->device == PCI_DEVICE_ID_830M ||
++         private_data.pdev->device == PCI_DEVICE_ID_845G ||
++         private_data.pdev->device == PCI_DEVICE_ID_855  ||
++         private_data.pdev->device == PCI_DEVICE_ID_865G) {
++
++              if (pg_start < private_data.gtt_entries) {
++                      AGN_ERROR("Trying to insert into local/stolen memory");
++                      AGN_DEBUG("pg_start == 0x%.8lx,private_data.gtt_entries =="
++                              "0x%.8x", pg_start,private_data.gtt_entries);
++                      return -EINVAL;
++              }
++      } else if(private_data.pdev->device == PCI_DEVICE_ID_810   ||
++                    private_data.pdev->device == PCI_DEVICE_ID_810DC ||
++                    private_data.pdev->device == PCI_DEVICE_ID_810E  ||
++                    private_data.pdev->device == PCI_DEVICE_ID_815) {
++
++              for (j = pg_start; j < (pg_start + mem->page_count); j++) {
++                      if (!PGE_EMPTY(agp_bridge, readl(agp_bridge->gatt_table+j))) {
++                              AGN_ERROR("Device busy");
++                              return -EBUSY;
++                      }
++              }
++              if (type != 0 || mem->type != 0) {
++                      if ((type == AGP_DCACHE_MEMORY) &&
++                              (mem->type == AGP_DCACHE_MEMORY)) {
++                              /* special insert */
++                              global_cache_flush();
++                              for (i = pg_start; i < (pg_start + mem->page_count);
++                                      i++) {
++                                      writel((i*4096)|I810_PTE_LOCAL|I810_PTE_VALID,
++                                              private_data.registers+I810_PTE_BASE+(i*4));
++                                      /* PCI Posting. */
++                                      readl(private_data.registers +
++                                                      I810_PTE_BASE+(i*4));
++                              }
++                              global_cache_flush();
++                              agp_bridge->driver->tlb_flush(mem);
++                              AGN_DEBUG("AGP_DCACHE_MEMORY.. Exit");
++                              return 0;
++                      }
++              }
++      }
++
++      if ((type != 0 && type != AGP_PHYS_MEMORY) ||
++              (mem->type != 0 && mem->type != AGP_PHYS_MEMORY)) {
++              AGN_ERROR("Unsupported memory type");
++              AGN_DEBUG("mem->type=%x", mem->type);
++              return -EINVAL;
++      }
++
++      global_cache_flush();
++      for (i = 0, j = pg_start; i < mem->page_count; i++, j++) {
++              writel(AGP_MASK_GTT(), private_data.registers+I810_PTE_BASE+(j*4));
++              /* PCI Posting. */
++              readl(private_data.registers+I810_PTE_BASE+(j*4));
++      }
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      AGN_DEBUG("Exit");
++
++      return 0;
++}
++
++static int iegd_alm_remove_entries(
++      struct agp_memory *mem,
++      off_t pg_start,
++      int type)
++{
++      int i;
++
++      AGN_DEBUG("Enter");
++
++      global_cache_flush();
++
++      if(private_data.pdev->device == PCI_DEVICE_ID_830M ||
++         private_data.pdev->device == PCI_DEVICE_ID_845G ||
++         private_data.pdev->device == PCI_DEVICE_ID_855  ||
++         private_data.pdev->device == PCI_DEVICE_ID_865G) {
++
++              if (pg_start < private_data.gtt_entries) {
++                      AGN_ERROR("Trying to disable local/stolen memory");
++                      AGN_DEBUG("pg_start=0x%.8lx, private_data.gtt_entries=%d",
++                                      pg_start, private_data.gtt_entries);
++                      return -EINVAL;
++              }
++      }
++
++      for (i = pg_start; i < (mem->page_count + pg_start); i++) {
++              writel(agp_bridge->scratch_page,
++                      private_data.registers+I810_PTE_BASE+(i*4));
++              /* PCI Posting. */
++              readl(private_data.registers+I810_PTE_BASE+(i*4));
++      }
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      AGN_DEBUG("Exit");
++
++      return 0;
++}
++
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_cmn.c patch_script_temp/drivers/gpu/drm/iegd/agp/drv_cmn.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_cmn.c     1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/agp/drv_cmn.c       2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,682 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: drv_cmn.c
++ * $Revision: 1.28 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++#include <linux/pagemap.h>
++#include "global.h"
++#include "intelpci.h"
++#include "interface_abs.h"
++#include "igd_abs.h"
++
++static struct agp_memory *alloc_agpphysmem_i8xx(
++      size_t pg_count, int type);
++static AGP_MEM_TYPE i8xx_alloc_pages(size_t pg_count,
++      unsigned int order);
++
++#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,31)
++static void i8xx_destroy_pages_by_addr(void *addr,
++        size_t pg_count, unsigned int order);
++#define PAGES_OR_MEMORY(a) gart_to_virt(a->memory[0])
++#define DESTROY_PAGES i8xx_destroy_pages_by_addr
++#else
++static void i8xx_destroy_pages(struct page **pages,
++      size_t pg_count, unsigned int order);
++#define PAGES_OR_MEMORY(a) a->pages
++#define DESTROY_PAGES i8xx_destroy_pages
++#endif
++
++dispatch_table_t driver_dispatch_list[] = {
++      { PCI_DEVICE_ID_810,   &drv_alm },
++      { PCI_DEVICE_ID_810DC, &drv_alm },
++      { PCI_DEVICE_ID_810E,  &drv_alm },
++      { PCI_DEVICE_ID_815,   &drv_alm },
++      { PCI_DEVICE_ID_830M,  &drv_alm },
++      { PCI_DEVICE_ID_845G,  &drv_alm },
++      { PCI_DEVICE_ID_855,   &drv_alm },
++      { PCI_DEVICE_ID_865G,  &drv_alm },
++      { PCI_DEVICE_ID_915GD, &drv_nap },
++      { PCI_DEVICE_ID_915AL, &drv_nap },
++      { PCI_DEVICE_ID_945G,  &drv_nap },
++      { PCI_DEVICE_ID_945GM, &drv_nap },
++      { PCI_DEVICE_ID_945GME,&drv_nap },
++      { PCI_DEVICE_ID_Q35,   &drv_nap },
++      { PCI_DEVICE_ID_Q35A2, &drv_nap },
++      { PCI_DEVICE_ID_965G,  &drv_gn4 },
++      { PCI_DEVICE_ID_946GZ, &drv_gn4 },
++      { PCI_DEVICE_ID_G965,  &drv_gn4 },
++      { PCI_DEVICE_ID_Q965,  &drv_gn4 },
++      { PCI_DEVICE_ID_GM965, &drv_gn4 },
++      { PCI_DEVICE_ID_GME965,&drv_gn4 },
++      { PCI_DEVICE_ID_GM45,  &drv_gm45},
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++      { PCI_DEVICE_ID_PLB,   &drv_plb },
++#endif
++      { PCI_DEVICE_ID_ELK,   &drv_gm45},
++      { PCI_DEVICE_ID_Q45,   &drv_gm45},
++      { PCI_DEVICE_ID_G45,   &drv_gm45},
++      { PCI_DEVICE_ID_G41,   &drv_gm45},
++      { 0, NULL },
++};
++
++/* Structure contained bit mask for the page table entries */
++struct gatt_mask iegd_cmn_masks[] =
++{
++      {.mask = I810_PTE_VALID, .type = 0},
++      {.mask = (I810_PTE_VALID | I810_PTE_LOCAL),
++              .type = AGP_DCACHE_MEMORY},
++      {.mask = I810_PTE_VALID, .type = 0}
++};
++
++
++int iegd_cmn_configure(void)
++{
++      struct aper_size_info_fixed *current_size;
++      u32 temp;
++      u16 gmch_ctrl;
++      int i;
++
++      AGN_DEBUG("Enter");
++
++      current_size = A_SIZE_FIX(agp_bridge->current_size);
++
++      pci_read_config_dword(private_data.pdev, I915_GMADDR, &temp);
++
++      agp_bridge->gart_bus_addr = (temp & PCI_BASE_ADDRESS_MEM_MASK);
++
++      if(!((private_data.pdev->device == PCI_DEVICE_ID_Q35) ||
++           (private_data.pdev->device == PCI_DEVICE_ID_Q35A2))) {
++              pci_read_config_word(agp_bridge->dev,I830_GMCH_CTRL,&gmch_ctrl);
++              gmch_ctrl |= I830_GMCH_ENABLED;
++              pci_write_config_word(agp_bridge->dev,I830_GMCH_CTRL,gmch_ctrl);
++
++              global_cache_flush();
++              agp_bridge->driver->tlb_flush(0);
++
++              writel(agp_bridge->gatt_bus_addr|I810_PGETBL_ENABLED,
++                              private_data.registers+I810_PGETBL_CTL);
++              /* PCI Posting. */
++              readl(private_data.registers+I810_PGETBL_CTL);
++      }
++
++      AGN_DEBUG ("gtt_entries: %X", private_data.gtt_entries);
++      if (agp_bridge->driver->needs_scratch_page) {
++              for (i = private_data.gtt_entries;
++                      i < current_size->num_entries; i++) {
++                      writel(agp_bridge->scratch_page, private_data.gtt+i);
++                      readl(private_data.gtt+i);      /* PCI Posting. */
++              }
++      }
++      global_cache_flush();
++
++      AGN_DEBUG("Exit");
++
++      return 0;
++}
++
++void iegd_cmn_init_gtt_entries(void)
++{
++      u16 gmch_ctrl;
++      u32 iegd_scratch, iegd_scratch2;
++      int gtt_entries;
++      u8 rdct;
++      int local = 0;
++      static const int ddt[4] = { 0, 16, 32, 64 };
++      int size;
++      int gtt_enabled = FALSE;
++
++      AGN_DEBUG("Enter");
++
++      /* This code original read the GMCH_CTRL register of the host
++       * bridge.  This register is also mirrored on the VGA device at
++       * the same address.  In the PLB family, the host bridge no
++       * longer contains the register.  As a result, all platforms
++       * will now use the mirrored register.  This breaks
++       * compatability with chipsets prior to 915G
++       */
++      pci_read_config_word(private_data.pdev, I830_GMCH_CTRL, &gmch_ctrl);
++
++      gtt_enabled = readl(private_data.registers + I810_PGETBL_CTL) &
++              I810_PGETBL_ENABLED;
++
++      /* A note on stolen memory:
++       *  Intel chipsets set aside a small area at the top of system memory
++       *  for VGA framebuffers etc. When the Intel device is the VGA
++       *  device, this memory is used to contain the GTT itself, and a scratch
++       *  memory page. Therefore the actual available memory already populated
++       *  in the GTT is the stolen memory minus the 4k scratch page minus the
++       *  128 page table.
++       *
++       *  Additionally, the embedded firmware may further alter this amount.
++       *  It can either allocate additional memory to be placed in the GTT
++       *  or use some stolen memory for data. If the IEGD vBIOS has altered
++       *  the amount we can detect it by reading a well-defined scratch
++       *  register.
++       *
++       *  When the Intel Graphics Device is not the VGA device, i.e.
++       *  the system boots with a PCI card, then this driver discards
++       *  the stolen memory.
++       *
++       * We obtain the size of the GTT, which is also stored (for some
++       * reason) at the top of stolen memory. Then we add 4KB to that
++       * for the video BIOS popup, which is also stored in there. */
++
++      size = agp_bridge->driver->fetch_size() + 4;
++      AGN_DEBUG("Size from fetch size + 4 = %x", size);
++
++      if (agp_bridge->dev->device == PCI_DEVICE_ID_INTEL_82830_HB ||
++          agp_bridge->dev->device == PCI_DEVICE_ID_INTEL_82845G_HB) {
++              switch (gmch_ctrl & I830_GMCH_GMS_MASK) {
++              case I830_GMCH_GMS_STOLEN_512:
++                      gtt_entries = KB(512) - KB(size);
++                      break;
++              case I830_GMCH_GMS_STOLEN_1024:
++                      gtt_entries = MB(1) - KB(size);
++                      break;
++              case I830_GMCH_GMS_STOLEN_8192:
++                      gtt_entries = MB(8) - KB(size);
++                      break;
++              case I830_GMCH_GMS_LOCAL:
++                      rdct = readb(private_data.registers+I830_RDRAM_CHANNEL_TYPE);
++                      gtt_entries = (I830_RDRAM_ND(rdct) + 1) *
++                                      MB(ddt[I830_RDRAM_DDT(rdct)]);
++                      local = 1;
++                      break;
++              default:
++                      gtt_entries = 0;
++                      break;
++              }
++      } else {
++              switch (gmch_ctrl & I830_GMCH_GMS_MASK) {
++              case I855_GMCH_GMS_STOLEN_1M:
++                      gtt_entries = MB(1) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_4M:
++                      gtt_entries = MB(4) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_8M:
++                      gtt_entries = MB(8) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_16M:
++                      gtt_entries = MB(16) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_32M:
++                      gtt_entries = MB(32) - KB(size);
++                      break;
++              case I915_GMCH_GMS_STOLEN_48M:
++                      /* Check it's really I915G */
++                      if (agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_915GD      ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_915AL      ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_945G       ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_945GM      ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_945GME     ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_965G       ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_G965       ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_Q965       ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_GM965          ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_GME965         ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_946GZ      )
++                              gtt_entries = MB(48) - KB(size);
++                      else
++                              gtt_entries = 0;
++                      break;
++              case I915_GMCH_GMS_STOLEN_64M:
++                      /* Check it's really I915G */
++                      if (agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_915GD      ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_915AL      ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_945G       ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_945GM      ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_945GME     ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_965G       ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_G965       ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_Q965       ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_GM965          ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_GME965         ||
++                          agp_bridge->dev->device == PCI_DEVICE_ID_BRIDGE_946GZ      )
++                              gtt_entries = MB(64) - KB(size);
++                      else
++                              gtt_entries = 0;
++              default:
++                      gtt_entries = 0;
++                      break;
++              }
++      }
++
++      /* if GTT is not enabled, then initialize gtt entries to 0 */
++
++      if (!gtt_entries) {
++              AGN_DEBUG("GTT is disabled");
++              AGN_LOG("IGD not primary, throwing away stolen memory.");
++
++              /* Update the scratch registers to say that we have no stolen memory */
++              writel((0xE1DF << 16), private_data.registers + 0x71410);
++
++              iegd_scratch = readl(private_data.registers + 0x71410);
++              iegd_scratch |= 0x4;
++
++              writel(iegd_scratch, private_data.registers + 0x71410);
++
++              /* say that we have 0 stolen memory regardless of what was
++               * really in there */
++              writel(0, private_data.registers + 0x71418);
++
++              gtt_entries = 0;
++      }
++
++      iegd_scratch = readl(private_data.registers + 0x71410);
++
++      if(((iegd_scratch>>16) == 0xE1DF) && (iegd_scratch & 0x4)) {
++              AGN_LOG("IEGD Firmware Detected");
++              /* IEGD firmware found, and Mem Reservation Flag present */
++              iegd_scratch2 = readl(private_data.registers + 0x71418);
++              gtt_entries = (iegd_scratch2 & 0xFFFF) * 4096;
++      }
++
++      if (gtt_entries > 0)
++              AGN_LOG("Detected %dK %s memory.",
++                     gtt_entries / KB(1), local ? "local" : "stolen");
++      else
++              AGN_LOG("No pre-allocated video memory detected.\n");
++
++      gtt_entries /= KB(4);
++      private_data.gtt_entries = gtt_entries;
++
++      AGN_DEBUG("Exit");
++}
++
++int AGP_FREE_GATT(iegd_cmn_free_gatt_table)
++{
++      AGN_DEBUG("Enter");
++      return 0;
++      AGN_DEBUG("Exit");
++}
++
++void AGP_ENABLE(iegd_cmn_agp_enable)
++{
++      AGN_DEBUG("Enter");
++      return;
++      AGN_DEBUG("Exit");
++}
++
++struct agp_memory *iegd_cmn_alloc_by_type(
++      size_t pg_count, int type)
++{
++      struct agp_memory *new;
++
++      AGN_DEBUG("Enter");
++
++      /* AGP_DCACHE_MEMORY use by certain chipset only, especially
++       * chipset from almador family. */
++      if(private_data.pdev->device == PCI_DEVICE_ID_810   ||
++         private_data.pdev->device == PCI_DEVICE_ID_810DC ||
++         private_data.pdev->device == PCI_DEVICE_ID_810E  ||
++         private_data.pdev->device == PCI_DEVICE_ID_815) {
++              if (type == AGP_DCACHE_MEMORY) {
++                      if (pg_count != private_data.num_dcache_entries) {
++                              AGN_ERROR("Page count error");
++                              AGN_DEBUG("pg_count=%d, num_dcache_entries=%d",
++                                      pg_count, private_data.num_dcache_entries);
++                              return NULL;
++                      }
++
++                      new = agp_create_memory(1);
++                      if (new == NULL) {
++                              AGN_ERROR("Allocating memory failed");
++                              return NULL;
++                      }
++
++                      new->type = AGP_DCACHE_MEMORY;
++                      new->page_count = pg_count;
++                      new->num_scratch_pages = 0;
++                      vfree(new->AGP_MEMORY_MEMBER); //free pages or memory
++                      AGN_DEBUG("AGP_DCACHE_MEMORY.. Exit");
++                      return new;
++              }
++      }
++
++      if (type == AGP_PHYS_MEMORY) {
++              AGN_DEBUG("AGP_PHYS_MEMORY.. Exit");
++              return alloc_agpphysmem_i8xx(pg_count, type);
++      }
++
++      AGN_DEBUG("NULL.. Exit");
++      return NULL;
++}
++
++void iegd_cmn_free_by_type(struct agp_memory *curr)
++{
++      unsigned int order;
++
++      AGN_DEBUG("Enter");
++
++      switch (curr->page_count) {
++      case 1:
++              order = 0;   /* pg_count = 1 => 2 ^ 0 */
++              break;
++      case 4:
++              order = 2;   /* pg_count = 4 => 2 ^ 2 */
++              break;
++      case 8:
++              order = 3;   /* pg_count = 8 => 2 ^ 3 */
++              break;
++      default:
++              /* This case should never happen */
++              return;
++      }
++
++      agp_free_key(curr->key);
++      if(curr->type == AGP_PHYS_MEMORY) {
++                DESTROY_PAGES(PAGES_OR_MEMORY(curr), curr->page_count,
++                        order);
++              IGD_FREE_MEM(curr);
++      }
++      kfree(curr);
++
++      AGN_DEBUG("Exit");
++}
++
++#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,31)
++static struct agp_memory *alloc_agpphysmem_i8xx(size_t pg_count, int type)
++{
++        struct agp_memory *new;
++        void *addr;
++        unsigned int order, i;
++
++        AGN_DEBUG("Enter");
++
++        /* To support RGBA hardware cursor which may require contiguous physical
++ *          * memory to be allocated with either 1, 4 or 8 pages. 8 pages is
++ *                   * the worst case for 830 which requires 4 pages and 4 page alignment.
++ *                            */
++        switch (pg_count) {
++        case 1:
++                order = 0;   /* pg_count = 1 => 2 ^ 0 */
++                break;
++        case 4:
++                order = 2;   /* pg_count = 4 => 2 ^ 2 */
++                break;
++        case 8:
++                order = 3;   /* pg_count = 8 => 2 ^ 3 */
++                break;
++        default:
++                return NULL;
++        }
++
++        addr = i8xx_alloc_pages(pg_count, order);
++       if (addr == NULL) {
++                AGN_ERROR("Allocating pages failed");
++                return NULL;
++        }
++
++        new = agp_create_memory(pg_count);
++        if (new == NULL) {
++                AGN_ERROR("Allocating memory failed");
++                return NULL;
++        }
++
++        new->memory[0] = virt_to_gart(addr);
++        for (i = 1; i < pg_count; i++) {
++                new->memory[i] = new->memory[i-1] + PAGE_SIZE;
++        }
++        new->page_count = pg_count;
++        new->num_scratch_pages = pg_count;
++        new->type = AGP_PHYS_MEMORY;
++        new->physical = new->memory[0];
++
++        AGN_DEBUG("Exit");
++        return new;
++}
++#else // kernel 31 or newer
++static struct agp_memory *alloc_agpphysmem_i8xx(size_t pg_count, int type)
++{
++      struct agp_memory *new;
++      struct page *page;
++      unsigned int order, i;
++
++      AGN_DEBUG("Enter");
++
++      /* To support RGBA hardware cursor which may require contiguous physical
++       * memory to be allocated with either 1, 4 or 8 pages. 8 pages is
++       * the worst case for 830 which requires 4 pages and 4 page alignment.
++       */
++      switch (pg_count) {
++      case 1:
++              order = 0;   /* pg_count = 1 => 2 ^ 0 */
++              break;
++      case 4:
++              order = 2;   /* pg_count = 4 => 2 ^ 2 */
++              break;
++      case 8:
++              order = 3;   /* pg_count = 8 => 2 ^ 3 */
++              break;
++      default:
++              return NULL;
++      }
++
++      page = i8xx_alloc_pages(pg_count, order);
++      if (page == NULL) {
++              AGN_ERROR("Allocating pages failed");
++              return NULL;
++      }
++
++      new = agp_create_memory(pg_count);
++      if (new == NULL) {
++              AGN_ERROR("Allocating memory failed");
++              return NULL;
++      }
++
++        new->pages[0] = page;
++        if (pg_count > 1) { // if page count is 4 or 8
++           for (i=0; i< pg_count-1; i++) {
++              new->pages[i+1] = new->pages[i] + 1;
++           }
++        }
++        new->page_count = pg_count;
++        new->num_scratch_pages = pg_count;
++        new->type = AGP_PHYS_MEMORY;
++        new->physical = page_to_phys(new->pages[0]);
++        return new;
++
++      AGN_DEBUG("Exit");
++}
++#endif
++
++static AGP_MEM_TYPE i8xx_alloc_pages(size_t pg_count, unsigned int order)
++{
++      struct page * page;
++
++      AGN_DEBUG("Enter");
++
++      page = alloc_pages(GFP_KERNEL, order);
++      if (page == NULL) {
++              AGN_ERROR("Allocating kernel page failed");
++              return NULL;
++      }
++
++      if (SET_PAGES_UC(page, pg_count) < 0) {
++              SET_PAGES_WB(page, pg_count);
++              GLOBAL_FLUSH_TLB();
++              __free_pages(page, pg_count);
++              AGN_ERROR("Change page attribute failed");
++              return NULL;
++      }
++      GLOBAL_FLUSH_TLB(); 
++      get_page(page);
++
++      /*
++       * Starting kernel 2.6.23 locking will causing lot of trouble. This is
++       * because of the changes in page fault handler in the kernel.
++       */
++      AGP_LOCK_PAGE(page); 
++      atomic_inc(&agp_bridge->current_memory_agp);
++      return PAGE_ADDRESS(page); //returns page or addr depending on kernel
++
++      AGN_DEBUG("Exit");
++}
++
++#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,31)
++static void i8xx_destroy_pages_by_addr(void *addr,
++        size_t pg_count, unsigned int order)
++{
++        struct page *page;
++
++        AGN_DEBUG("Enter");
++
++        if (addr == NULL)
++                return;
++
++        page = virt_to_page(addr);
++        SET_PAGES_WB(page, pg_count);
++        GLOBAL_FLUSH_TLB();
++        put_page(page);
++        /*
++         * Starting kernel 2.6.23 locking will causing lot of trouble. This is
++         * because of the changes in page fault handler in the kernel.
++         */
++        AGP_UNLOCK_PAGE(page);
++
++        free_pages((unsigned long)addr, order);
++        atomic_dec(&agp_bridge->current_memory_agp);
++
++        AGN_DEBUG("Exit");
++}
++
++#else  //kernel is 31 or newer
++static void i8xx_destroy_pages(struct page **pages,
++      size_t pg_count, unsigned int order)
++{
++      struct page *page;
++        int i;
++
++      AGN_DEBUG("Enter");
++
++      if (pages == NULL)
++              return;
++
++      GLOBAL_FLUSH_TLB();
++        //The following code is based on agp_generic_destroy_pages in generic.c
++        for (i = 0; i < pg_count; i++) {
++           page = pages[i];
++
++           put_page(page);
++           __free_page(page);
++           atomic_dec(&agp_bridge->current_memory_agp);
++           pages[i] = NULL;
++        }
++
++      AGN_DEBUG("Exit");
++}
++#endif
++
++unsigned long AGP_MASK_MEMORY(iegd_cmn_mask_memory)
++{
++      struct agp_bridge_data *brdg = AGP_BRIDGE_VAR;
++        
++        // only converts if kernel is 2.6.31 or newer
++        unsigned long address = CONVERT_PAGE_TO_GART(addr);
++
++      /* Type checking must be done elsewhere */
++      return address | AGP_MASK_ADDR(brdg);
++}
++
++int iegd_cmn_insert_entries(struct agp_memory *mem,
++      off_t pg_start, int type)
++{
++      int i,j,num_entries;
++      void *temp;
++
++      AGN_DEBUG("Enter");
++
++      temp = agp_bridge->current_size;
++      num_entries = A_SIZE_FIX(temp)->num_entries;
++
++      if (pg_start < private_data.gtt_entries) {
++              AGN_ERROR("Trying to insert into local/stolen memory");
++              AGN_DEBUG("pg_start == 0x%.8lx,private_data.gtt_entries =="
++                      "%d", pg_start,private_data.gtt_entries);
++              return -EINVAL;
++      }
++
++      /* If we try to write beyond gtt table, return error */
++      if ((pg_start + mem->page_count) > num_entries) {
++              AGN_ERROR("Trying to write beyond aperture limit");
++              AGN_DEBUG("pg_start=0x%.8lx, mem->page_count=%d,"
++                              "num_entries=%d", pg_start, mem->page_count,
++                              num_entries);
++              return -EINVAL;
++      }
++
++      /* The i830 can't check the GTT for entries since its read only,
++       * depend on the caller to make the correct offset decisions.
++       */
++
++      if ((type != 0 && type != AGP_PHYS_MEMORY) ||
++              (mem->type != 0 && mem->type != AGP_PHYS_MEMORY)) {
++              AGN_ERROR("Unsupported memory type");
++              AGN_DEBUG("mem->type=%x, type=%x", mem->type, type);
++              return -EINVAL;
++      }
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      for (i = 0, j = pg_start; i < mem->page_count; i++, j++) {
++              writel(AGP_MASK_GTT(), private_data.gtt+j);
++              readl(private_data.gtt+j);      /* PCI Posting. */
++      }
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      AGN_DEBUG("Exit");
++
++      return 0;
++}
++
++int iegd_cmn_remove_entries(struct agp_memory *mem,
++      off_t pg_start, int type)
++{
++      int i;
++
++      AGN_DEBUG("Enter");
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      if (pg_start < private_data.gtt_entries) {
++              AGN_ERROR("Trying to disable local/stolen memory");
++              AGN_DEBUG("pg_start=0x%.8lx, private_data.gtt_entries=%d",
++                              pg_start, private_data.gtt_entries);
++              return -EINVAL;
++      }
++
++      for (i = pg_start; i < (mem->page_count + pg_start); i++) {
++              writel(agp_bridge->scratch_page, private_data.gtt+i);
++              readl(private_data.gtt+i);
++      }
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      AGN_DEBUG("Exit");
++
++      return 0;
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_gn4.c patch_script_temp/drivers/gpu/drm/iegd/agp/drv_gn4.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_gn4.c     1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/agp/drv_gn4.c       2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,455 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface.c
++ * $Revision: 1.17 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2007, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++#include "global.h"
++#include "intelpci.h"
++
++static int  iegd_gn4_fetch_size(void);
++static void iegd_gn4_cleanup(void);
++static void iegd_gn4_tlbflush(struct agp_memory *mem);
++static int  AGP_CREATE_GATT(iegd_gn4_create_gatt_table);
++
++/* GM45 functions */
++static int  iegd_igm45_fetch_size(void);
++static int  iegd_igm45_configure(void);
++static int  AGP_CREATE_GATT(iegd_igm45_create_gatt_table);
++
++struct aper_size_info_fixed iegd_i965_sizes[] =
++{
++      /* VBIOS always allocates enough space for 512MB aperture */
++      /* Size KB, # of entries, ? */
++      {128,       131072,       7},
++      {64,        131072,       7},
++      {256,       131072,       7},
++      {512,       131072,       7},
++};
++
++struct aper_size_info_fixed iegd_igm45_sizes[] =
++{
++      /* GM45 has 2MB GTT (EDS page 217) size */
++      /* Size_KB  #_of_entries  ? */
++      {256,       524288,       7},
++      {512,       524288,       7},
++};
++
++
++bridge_driver_t drv_gn4 = {
++       .owner                  = THIS_MODULE,
++       .size_type              = FIXED_APER_SIZE,
++       .aperture_sizes         = 0,
++       .num_aperture_sizes     = 0,
++       .needs_scratch_page     = TRUE,
++       .configure              = iegd_cmn_configure,
++       .fetch_size             = iegd_gn4_fetch_size,
++       .cleanup                = iegd_gn4_cleanup,
++       .tlb_flush              = iegd_gn4_tlbflush,
++       .mask_memory            = iegd_cmn_mask_memory,
++       .masks                  = iegd_cmn_masks,
++       .agp_enable             = iegd_cmn_agp_enable,
++       .cache_flush            = global_cache_flush,
++       .create_gatt_table      = iegd_gn4_create_gatt_table,
++       .free_gatt_table        = iegd_cmn_free_gatt_table,
++       .insert_memory          = iegd_cmn_insert_entries,
++       .remove_memory          = iegd_cmn_remove_entries,
++       .alloc_by_type          = iegd_cmn_alloc_by_type,
++       .free_by_type           = iegd_cmn_free_by_type,
++       .agp_alloc_page         = agp_generic_alloc_page,
++       .agp_destroy_page       = agp_generic_destroy_page,
++};
++
++/* GM45 */
++bridge_driver_t drv_gm45 = {
++       .owner                  = THIS_MODULE,
++       .size_type              = FIXED_APER_SIZE,
++       .aperture_sizes         = (void *)iegd_igm45_sizes,
++       .num_aperture_sizes     = 3,
++       .needs_scratch_page     = TRUE,
++       .configure              = iegd_igm45_configure,
++       .fetch_size             = iegd_igm45_fetch_size,
++       .cleanup                = iegd_gn4_cleanup,
++       .tlb_flush              = iegd_gn4_tlbflush,
++       .mask_memory            = iegd_cmn_mask_memory,
++       .masks                  = iegd_cmn_masks,
++       .agp_enable             = iegd_cmn_agp_enable,
++       .cache_flush            = global_cache_flush,
++       .create_gatt_table      = iegd_igm45_create_gatt_table,
++       .free_gatt_table        = iegd_cmn_free_gatt_table,
++       .insert_memory          = iegd_cmn_insert_entries,
++       .remove_memory          = iegd_cmn_remove_entries,
++       .alloc_by_type          = iegd_cmn_alloc_by_type,
++       .free_by_type           = iegd_cmn_free_by_type,
++       .agp_alloc_page         = agp_generic_alloc_page,
++       .agp_destroy_page       = agp_generic_destroy_page,
++};
++
++
++static int iegd_gn4_fetch_size(void)
++{
++      struct aper_size_info_fixed *values;
++      u32 offset = 0;
++      u8 temp;
++
++#define IG965_GMCH_MSAC 0x62
++#define IGM965_GMCH_MSAC 0x66
++
++      AGN_DEBUG("Enter");
++
++      values = A_SIZE_FIX(agp_bridge->driver->aperture_sizes);
++
++      if(private_data.pdev->device == PCI_DEVICE_ID_GM965) {
++              pci_read_config_byte(private_data.pdev, IGM965_GMCH_MSAC, &temp);
++      } else {
++              pci_read_config_byte(private_data.pdev, IG965_GMCH_MSAC, &temp);
++      }
++
++      switch (temp & 6) {
++      case 0:
++              offset = 0;     /* 128MB aperture */
++              break;
++      case 2:
++              offset = 2;     /* 256MB aperture */
++              break;
++      case 6:
++              offset = 3;     /* 512MB aperture */
++              break;
++      }
++
++      /* Set the actual size here */
++      agp_bridge->previous_size = agp_bridge->current_size =
++              (void *)(values + offset);
++
++      AGN_DEBUG("Exit");
++
++      /* Always return 512KB GTT when calculating available stolen memory */
++      return values[3].size;
++}
++
++static void iegd_gn4_cleanup(void)
++{
++      AGN_DEBUG("Enter");
++      iounmap((void *)private_data.registers);
++      AGN_DEBUG("Exit");
++}
++
++static void iegd_gn4_tlbflush(struct agp_memory *mem)
++{
++      AGN_DEBUG("Enter");
++      /* Gen4 must flush the GTT or simple 2D rendering will lock the engine. */
++      writel(0, private_data.registers+0x2170);
++      writel(0, private_data.registers+0x2174);
++      AGN_DEBUG("Exit");
++      return;
++}
++
++static int AGP_CREATE_GATT(iegd_gn4_create_gatt_table)
++{
++      const u32 i965_gtt_table_order = 7;
++
++      int i;
++      u16 j = 0;
++      int num_entries;
++      u32 gtt_bus_addr;
++      u32 mmio_bus_addr;
++      u32 gtt_enabled    = FALSE;
++      u32 gtt_table_size = (1 << i965_gtt_table_order) * PAGE_SIZE - 1;
++      u32 gtt_pgctl_reg;
++      char *gtt_table, *gtt_table_end, *current_entry;
++      struct page *gtt_table_page;
++
++      AGN_DEBUG("Enter");
++
++      agp_bridge->gatt_table_real = NULL;
++
++      /* Find and save the address of the MMIO register */
++      pci_read_config_dword(private_data.pdev, I915_MMADDR, &mmio_bus_addr);
++
++      mmio_bus_addr &= 0xFFF80000;
++      private_data.registers =(volatile u8 *)
++              ioremap(mmio_bus_addr,1024 * 4096);
++      if (!private_data.registers) {
++              AGN_ERROR("ioremap failed to map");
++              return (-ENOMEM);
++      }
++      /* GTT is mapped 512KB after the registers */
++      private_data.gtt = (u32 __iomem *)((u32)private_data.registers +
++              512*1024);
++
++      /* Extract the content of the control register */
++      gtt_pgctl_reg = readl(private_data.registers+I810_PGETBL_CTL);
++      gtt_bus_addr  = gtt_pgctl_reg & 0xFFFFF000;
++      gtt_enabled   = gtt_pgctl_reg & I810_PGETBL_ENABLED;
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(0);
++
++      /* we have to call this as early as possible after the MMIO base address is known */
++      iegd_cmn_init_gtt_entries();
++
++      if( !gtt_enabled ) {
++              num_entries   = iegd_i965_sizes[0].num_entries;
++              gtt_table     = (char *) __get_free_pages(GFP_KERNEL,
++                      i965_gtt_table_order);
++              gtt_table_end = gtt_table + gtt_table_size;
++
++              /* Make sure allocation was successful */
++              if( NULL == gtt_table ) {
++                      AGN_ERROR("Fail to allocate kernel pages");
++                      return (-ENOMEM);
++              }
++
++              for( current_entry = gtt_table; current_entry < gtt_table_end;
++                   current_entry += PAGE_SIZE ) {
++                      gtt_table_page = virt_to_page( current_entry );
++                      set_bit( PG_reserved, &gtt_table_page->flags );
++              }
++
++              agp_bridge->gatt_bus_addr = virt_to_phys( gtt_table );
++
++              for( i = 0; i < num_entries; i++ ) {
++                *(gtt_table + j) = (unsigned long) agp_bridge->scratch_page;
++                j += 4;
++              }
++      }
++      else {
++              agp_bridge->gatt_bus_addr = gtt_bus_addr;
++      }
++
++      agp_bridge->gatt_table = NULL;
++
++      AGN_DEBUG("Exit");
++
++      return(0);
++}
++
++static int AGP_CREATE_GATT(iegd_igm45_create_gatt_table)
++{
++      u32 mmio_bus_addr;
++
++      u32 gtt_mem_size;
++      u32 base_stolen_mem;
++      u16 gmch_ctrl;
++
++      u32 iegd_scratch, iegd_scratch2;
++      int gtt_entries;
++      int size = 4;   /* Scratch page 4KB */
++
++      AGN_DEBUG("Enter");
++
++      agp_bridge->gatt_table_real = NULL;
++
++      /* Find and save the address of the MMIO register */
++      pci_read_config_dword(private_data.pdev, I915_MMADDR, &mmio_bus_addr);
++
++      /* Bits 35-22 */
++      mmio_bus_addr &= 0xFFC00000;
++
++      /* Map 4MB: 512KB MMIO, 2MB GTT */
++      private_data.registers =(volatile u8 *) ioremap(mmio_bus_addr, MB(4));
++
++      if (!private_data.registers) {
++              AGN_ERROR("ioremap failed to map");
++              return (-ENOMEM);
++      }
++
++      /* GTT is mapped 2MB after the registers */
++      private_data.gtt = (u32 __iomem *)((u32)private_data.registers + MB(2));
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(0);
++
++      pci_read_config_word(agp_bridge->dev,I830_GMCH_CTRL, &gmch_ctrl);
++
++#define IGM45_GMCH_GMS_STOLEN_128M   (0x8 << 4)
++#define IGM45_GMCH_GMS_STOLEN_256M   (0x9 << 4)
++#define IGM45_BASE_STOLEN 0x5C
++      pci_read_config_dword(private_data.pdev,IGM45_BASE_STOLEN,&base_stolen_mem);
++      base_stolen_mem &= 0xFFF00000;
++
++      /* Bits [7:4] will tell the amount of stolen memory */
++      /* Stolen memory = Amount specfied - 1 scratch page */
++      switch (gmch_ctrl & 0xf0) {
++              case I855_GMCH_GMS_STOLEN_1M:
++                      gtt_entries = MB(1) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_4M:
++                      gtt_entries = MB(4) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_8M:
++                      gtt_entries = MB(8) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_16M:
++                      gtt_entries = MB(16) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_32M:
++                      gtt_entries = MB(32) - KB(size);
++                      break;
++              case I915_GMCH_GMS_STOLEN_48M:
++                      gtt_entries = MB(48) - KB(size);
++                      break;
++              case I915_GMCH_GMS_STOLEN_64M:
++                      gtt_entries = MB(64) - KB(size);
++                      break;
++              case IGM45_GMCH_GMS_STOLEN_128M:
++                      gtt_entries = MB(128) - KB(size);
++                      break;
++              case IGM45_GMCH_GMS_STOLEN_256M:
++                      gtt_entries = MB(256) - KB(size);
++                      break;
++              default:
++                      gtt_entries = 0;
++                      break;
++      }
++
++      iegd_scratch = readl(private_data.registers + 0x71410);
++
++      /* check for the pci card as primary */
++      if (iegd_scratch == 0) {
++              /* No stolen memory has been used */
++              /*
++              * In Gen4, GTT is 2MB below stolen memory, which is a fix location
++              * The GTT is empty.
++              * Populate the GTT with PTE point to the stolen memory.
++              * This will not waste the stolen memory which BIOS already allocated.
++              */
++              int num_entries;
++              int i;
++              u16 j = 0;
++              
++              AGN_DEBUG("PCI as primary.\n");
++
++              num_entries = gtt_entries / KB (4);
++
++              for (i = 0; i < num_entries; i++) {
++                      writel(((base_stolen_mem + i * KB(4)) | 1), private_data.gtt+j);
++                      j+=1;
++              }
++
++              gtt_entries = num_entries * KB(4);
++
++              AGN_DEBUG("PCI as primary scratch_page = %08lx gtt_entries = %d",
++                      agp_bridge->scratch_page, gtt_entries);
++      } else if (((iegd_scratch>>16) == 0xE1DF) && (iegd_scratch & 0x4)) {
++              AGN_LOG("IEGD Firmware Detected");
++              /* IEGD firmware found, and Mem Reservation Flag present */
++              iegd_scratch2 = readl(private_data.registers + 0x71418);
++              /* Stolen memory = # of pages * 4KB */
++              gtt_entries = (iegd_scratch2 & 0xFFFF) * 4096;
++      }
++
++      if (gtt_entries > 0) {
++              AGN_LOG("Detected %d KB = %d MB stolen memory.", gtt_entries / KB(1),
++                      gtt_entries/MB(1));
++      } else {
++              AGN_LOG("No pre-allocated video memory detected.");
++      }
++
++      /* Divide by 4KB to get the # of GTT entries */
++      private_data.gtt_entries = gtt_entries/KB(4);
++
++
++      /* On GM45, GTTADR size is 2MB. EDS page 217 */
++      gtt_mem_size = MB(2);
++
++      AGN_DEBUG("gtt_mem_size = %uMB", gtt_mem_size/MB(1));
++
++      /* Minus base stolen memory to get the base of gtt. This address
++       * can also get from register 0xA8 of config space device 0 */
++      agp_bridge->gatt_bus_addr = base_stolen_mem - gtt_mem_size;
++      agp_bridge->gatt_table = NULL;
++      AGN_DEBUG("Exit");
++
++      return(0);
++}
++
++/* GM45: configure */
++static int iegd_igm45_configure(void)
++{
++      struct aper_size_info_fixed *current_size;
++      u32 temp;
++      int i;
++
++      AGN_DEBUG("Enter");
++
++      current_size = A_SIZE_FIX(agp_bridge->current_size);
++
++      pci_read_config_dword(private_data.pdev, I915_GMADDR, &temp);
++      AGN_DEBUG("1. Reg[0x%x] = 0x%x\n", I915_GMADDR, temp);
++
++      agp_bridge->gart_bus_addr = (temp & PCI_BASE_ADDRESS_MEM_MASK);
++      AGN_DEBUG("2. Reg[0x%x] = 0x%x\n", I915_GMADDR, temp);
++
++      if (agp_bridge->driver->needs_scratch_page) {
++              for (i = private_data.gtt_entries;
++                      i < current_size->num_entries; i++) {
++                      writel(agp_bridge->scratch_page, private_data.gtt+i);
++                      readl(private_data.gtt+i);      /* PCI Posting. */
++              }
++      }
++      global_cache_flush();
++
++      AGN_DEBUG("Exit");
++
++      return 0;
++}
++
++/* GM45: fetch_size() */
++static int iegd_igm45_fetch_size(void)
++{
++      struct aper_size_info_fixed *values;
++      u32 offset = 0;
++      u8 temp;
++
++#define IGM45_GMCH_MSAC 0x66
++#define Q45_GMCH_MSAC 0x62
++
++      AGN_DEBUG("Enter");
++
++      values = A_SIZE_FIX(agp_bridge->driver->aperture_sizes);
++
++      if(private_data.pdev->device == PCI_DEVICE_ID_ELK ||
++         private_data.pdev->device == PCI_DEVICE_ID_Q45 ||
++         private_data.pdev->device == PCI_DEVICE_ID_G45 ||
++         private_data.pdev->device == PCI_DEVICE_ID_G41) {
++              pci_read_config_byte(private_data.pdev, Q45_GMCH_MSAC, &temp);
++      } else {
++              pci_read_config_byte(private_data.pdev, IGM45_GMCH_MSAC, &temp);
++      }
++
++      /* GM45 has only 2 aperture sizes (EDS 227) : 256MB/512MB */
++      switch (temp & 6) {
++      case 2:
++              offset = 0;     /* 256MB aperture */
++              break;
++      case 6:
++              offset = 1;     /* 512MB aperture */
++              break;
++      }
++
++      /* Set the actual size here */
++      agp_bridge->previous_size = agp_bridge->current_size =
++              (void *)(values + offset);
++
++      AGN_DEBUG("Exit");
++      /* For GM45 always return 2MB as GTT size */
++      return values[0].size;
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_nap.c patch_script_temp/drivers/gpu/drm/iegd/agp/drv_nap.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_nap.c     1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/agp/drv_nap.c       2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,470 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: drv_nap.c
++ * $Revision: 1.14 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++#include "global.h"
++#include "intelpci.h"
++
++static int iegd_nap_fetch_size(void);
++static void iegd_nap_tlbflush(struct agp_memory *mem);
++
++static void iegd_iq35_init_gtt_entries(void);
++static void iegd_nap_iq35_gatt(void);
++static int iegd_nap_9series(u32 order);
++static int AGP_CREATE_GATT(iegd_nap_create_gatt_table);
++static void iegd_nap_cleanup(void);
++
++
++struct aper_size_info_fixed iegd_i915_sizes[] =
++{
++      {128, 32768, 5},
++      /* The 64M mode still requires a 128k gatt */
++      {64, 16384, 5},
++      {256, 65536, 6},
++      {512, 131072, 7},
++};
++
++struct aper_size_info_fixed iegd_iq35_sizes[] =
++{
++      {128, 32768, 5},
++      {256, 65536, 6},
++      {512, 131072, 7},
++};
++
++bridge_driver_t drv_nap = {
++      .owner              = THIS_MODULE,
++      .size_type          = FIXED_APER_SIZE,
++      .aperture_sizes     = 0,
++      .num_aperture_sizes = 0,
++      .needs_scratch_page = TRUE,
++      .configure          = iegd_cmn_configure,
++      .fetch_size         = iegd_nap_fetch_size,
++      .cleanup            = iegd_nap_cleanup,
++      .tlb_flush          = iegd_nap_tlbflush,
++      .mask_memory        = iegd_cmn_mask_memory,
++      .masks              = iegd_cmn_masks,
++      .agp_enable         = iegd_cmn_agp_enable,
++      .cache_flush        = global_cache_flush,
++      .create_gatt_table  = iegd_nap_create_gatt_table,
++      .free_gatt_table    = iegd_cmn_free_gatt_table,
++      .insert_memory      = iegd_cmn_insert_entries,
++      .remove_memory      = iegd_cmn_remove_entries,
++      .alloc_by_type      = iegd_cmn_alloc_by_type,
++      .free_by_type       = iegd_cmn_free_by_type,
++      .agp_alloc_page     = agp_generic_alloc_page,
++      .agp_destroy_page   = agp_generic_destroy_page,
++};
++
++static int iegd_nap_fetch_size()
++{
++      struct aper_size_info_fixed *values;
++      u32 offset = 0;
++      u32 temp2;
++      u8 temp;
++
++#define IQ35_GMCH_MSAC 0x62
++#define I915_256MB_ADDRESS_MASK (1<<27)
++
++      AGN_DEBUG("Enter");
++
++      values = A_SIZE_FIX(agp_bridge->driver->aperture_sizes);
++
++      switch(private_data.pdev->device) {
++      case PCI_DEVICE_ID_Q35:
++      case PCI_DEVICE_ID_Q35A2:               
++              pci_read_config_byte(private_data.pdev,
++                      IQ35_GMCH_MSAC, &temp);
++              switch(temp & 0x3) {
++              case 1:
++                      offset = 2; /* 512MB aperture size */
++                      break;
++              case 2:
++                      offset = 1; /* 256MB aperture size */
++                      break;
++              case 3:
++                      offset = 0; /* 128MB aperture size */
++                      break;
++              }
++              break;
++      case PCI_DEVICE_ID_915GD:
++      case PCI_DEVICE_ID_915AL:
++      case PCI_DEVICE_ID_945G:
++      case PCI_DEVICE_ID_945GM:
++      case PCI_DEVICE_ID_945GME:
++              pci_read_config_dword(private_data.pdev,
++                      I915_GMADDR, &temp2);
++              if (temp2 & I915_256MB_ADDRESS_MASK) {
++                      offset = 0;     /* 128MB aperture */
++              } else {
++                      offset = 2;     /* 256MB aperture */
++              }
++              break;
++      }
++
++      agp_bridge->previous_size = agp_bridge->current_size =
++              (void *)(values + offset);
++
++      AGN_DEBUG("Exit");
++
++      return values[offset].size;
++}
++
++static void iegd_nap_tlbflush(struct agp_memory *mem)
++{
++      AGN_DEBUG("Enter");
++      return;
++      AGN_DEBUG("Exit");
++}
++
++static void iegd_iq35_init_gtt_entries(void)
++{
++      u16 gmch_ctrl;
++      u32 iegd_scratch, iegd_scratch2;
++      int gtt_entries;
++      int local = 0;
++      int size = 4;
++
++#define I35_GMCH_GMS_STOLEN_128M   (0x8 << 4)
++#define I35_GMCH_GMS_STOLEN_256M   (0x9 << 4)
++#define I35_GMCH_GMS_MASK          0xf0
++
++      AGN_DEBUG("Enter");
++
++      pci_read_config_word(agp_bridge->dev,I830_GMCH_CTRL,&gmch_ctrl);
++
++      switch (gmch_ctrl & I35_GMCH_GMS_MASK) {
++              case I855_GMCH_GMS_STOLEN_1M:
++                      gtt_entries = MB(1) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_4M:
++                      gtt_entries = MB(4) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_8M:
++                      gtt_entries = MB(8) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_16M:
++                      gtt_entries = MB(16) - KB(size);
++                      break;
++              case I855_GMCH_GMS_STOLEN_32M:
++                      gtt_entries = MB(32) - KB(size);
++                      break;
++              case I915_GMCH_GMS_STOLEN_48M:
++                      gtt_entries = MB(48) - KB(size);
++                      break;
++              case I915_GMCH_GMS_STOLEN_64M:
++                      gtt_entries = MB(64) - KB(size);
++                      break;
++              case I35_GMCH_GMS_STOLEN_128M:
++                      gtt_entries = MB(128) - KB(size);
++                      break;
++              case I35_GMCH_GMS_STOLEN_256M:
++                      gtt_entries = MB(256) - KB(size);
++                      break;
++              default:
++                      gtt_entries = 0;
++              break;
++      }
++
++      iegd_scratch = readl(private_data.registers + 0x71410);
++
++      /* FIXME: check for the pci card as primary */
++      if(iegd_scratch == 0) {
++              gtt_entries = 0;
++      } else if (((iegd_scratch>>16) == 0xE1DF) && (iegd_scratch & 0x4)) {
++              AGN_LOG("IEGD Firmware Detected");
++              /* IEGD firmware found, and Mem Reservation Flag present */
++              iegd_scratch2 = readl(private_data.registers + 0x71418);
++              gtt_entries = (iegd_scratch2 & 0xFFFF) * 4096;
++      }
++
++      if (gtt_entries > 0) {
++              AGN_LOG("Detected %dK %s memory.",
++              gtt_entries / KB(1), local ? "local" : "stolen");
++      } else {
++              AGN_LOG("No pre-allocated video memory detected.");
++      }
++
++      gtt_entries /= KB(4);
++
++      private_data.gtt_entries = gtt_entries;
++
++      AGN_DEBUG("Exit");
++}
++
++static void iegd_nap_iq35_gatt()
++{
++      u32 gtt_mem_size;
++      u32 base_stolen_mem;
++      u16 gmch_ctrl;
++
++      AGN_DEBUG("Enter");
++
++      iegd_iq35_init_gtt_entries();
++
++      pci_read_config_dword(private_data.pdev,
++              IQ35_BASE_STOLEN, &base_stolen_mem);
++      base_stolen_mem &= 0xFFF00000;
++
++      pci_read_config_word(private_data.pdev,
++              I830_GMCH_CTRL, &gmch_ctrl);
++
++      switch(gmch_ctrl & IQ35_GTT_MEM_SIZE) {
++      case IQ35_GGMS_1MB:
++              gtt_mem_size = MB(1); /* Normal mode */
++              break;
++      case IQ35_GGMS_2MB:
++              gtt_mem_size = MB(2); /* VT mode */
++              break;
++      default:
++              gtt_mem_size = 0;
++      }
++
++      AGN_DEBUG("gtt_mem_size = %uMB", gtt_mem_size);
++
++      /* Minus based stolen memory to get the base of gtt. This address
++       * can also get from register 0xA8 of config space device 0 */
++      agp_bridge->gatt_bus_addr = base_stolen_mem - gtt_mem_size;
++
++      AGN_DEBUG("Exit");
++}
++
++static int iegd_nap_9series(u32 order)
++{
++      u32 gtt_pgctl_reg;
++      u32 gtt_bus_addr;
++      u32 gtt_enabled = FALSE;
++      u32 iegd_scratch;
++
++      gtt_pgctl_reg = readl(private_data.registers +
++              I810_PGETBL_CTL);
++      global_cache_flush();
++      gtt_bus_addr = gtt_pgctl_reg & 0xFFFFF000;
++      gtt_enabled  = gtt_pgctl_reg & I810_PGETBL_ENABLED;
++
++
++      /* we have to call this as early as possible after the MMIO base
++       * address is known */
++      iegd_cmn_init_gtt_entries();
++
++      /*
++       * If GTT not enabled created our own gtt table from kernel memory
++       * and initialize it to scratch page. This in case the VBIOS is
++       * not our VBIOS
++       */
++      iegd_scratch = readl(private_data.registers + 0x71410);
++
++      if (iegd_scratch == 0) {
++              /* PCI as primary device.  IEGD VBIOS is not loaded.
++               * Need to setup the GTT in stolen memory
++               * GTT will located at the bottom of stolen memory.
++               * The rest of the memory will use as video memory and map the PTE except
++               * the last page, which use as sratch page.
++               */
++              u32 gtt_end;
++              u32 gtt_addr_reg;
++              u32 base_stolen_mem;
++              u16 gmch_ctrl;
++              int aperture_size = 0;
++              int total_stolen_pages = 0;
++              int total_gtt_entries = 0;
++              int num_entries;
++              int i;
++              u16 j = 0;
++              u32 temp2;
++              u8 temp;
++      
++              /* read the stolen memory address. 
++               * use 512 bytes as GTT table, and use the rest table for memory. */
++              pci_read_config_dword(private_data.pdev,
++                      IQ35_BASE_STOLEN, &base_stolen_mem);
++              base_stolen_mem &= 0xFFF00000;
++              
++              /* have to determine the stolen memory size. 
++              * We can't use the private_data.gtt_entries value because the value assume VBIOS is present. */
++              pci_read_config_word(private_data.pdev, I830_GMCH_CTRL, &gmch_ctrl);
++              gmch_ctrl = (gmch_ctrl >> 4) & 0xf;
++              /* Translate the stolen memory size to num of pages available. */
++              if (gmch_ctrl == 1) {
++                       total_stolen_pages = 1024 / 4 ;
++              } else if (gmch_ctrl > 1) {
++                       total_stolen_pages = (2 << (gmch_ctrl - 1)) * (1024 / 4);
++              }
++
++              /* We need to allocate the last page as scratch page. */
++              total_stolen_pages = total_stolen_pages - 1;
++              
++              /* Need to program the PGETBL_CTL to enable page table. */
++              writel(base_stolen_mem | 1, private_data.registers + I810_PGETBL_CTL);
++              
++#define I810_GTT_ADDR 0x1c
++              /* Find and save the address of the MMIO register */
++              pci_read_config_dword(private_data.pdev, I810_GTT_ADDR, &gtt_addr_reg);
++              private_data.gtt = (volatile u32 *) ioremap(gtt_addr_reg, KB(512));
++              
++              if (!private_data.gtt) {
++                      AGN_ERROR("ioremap failed to map");
++                      return (-ENOMEM);
++              }
++
++      
++              switch(private_data.pdev->device) {
++                      case PCI_DEVICE_ID_Q35:
++                      case PCI_DEVICE_ID_Q35A2:               
++                              pci_read_config_byte(private_data.pdev,
++                              IQ35_GMCH_MSAC, &temp);
++                              switch(temp & 0x3) {
++                                      case 1:
++                                              aperture_size = 512; /* 512MB aperture size */
++                                              break;
++                                      case 2:
++                                              aperture_size = 256; /* 256MB aperture size */
++                                              break;
++                                      case 3:
++                                              aperture_size = 128; /* 128MB aperture size */
++                                              break;
++                              }
++                              break;
++                      case PCI_DEVICE_ID_915GD:
++                      case PCI_DEVICE_ID_915AL:
++                      case PCI_DEVICE_ID_945G:
++                      case PCI_DEVICE_ID_945GM:
++                      case PCI_DEVICE_ID_945GME:
++                                      pci_read_config_dword(private_data.pdev,
++                                      I915_GMADDR, &temp2);
++                                      if (temp2 & I915_256MB_ADDRESS_MASK) {
++                                              aperture_size = 128;    /* 128MB aperture */
++                                      } else {
++                                              aperture_size = 256;    /* 256MB aperture */
++                                      }
++                              break;
++                      default: AGN_ERROR("Illegal Device ID");
++                              break;
++              }       
++              /* Number of GTT entries available based on the aperture size. */
++              total_gtt_entries = aperture_size * 1024 / 4;  
++              /* gtt_end is the last entry of the GTT, and start of video memory. */
++              gtt_end = base_stolen_mem + KB(aperture_size);
++
++              /* This num_entries mean total of PTE can be populate based on the 
++               * remaining stolen memory size.*/
++              num_entries = ((total_stolen_pages * 4) - aperture_size) / 4;
++              
++              /* Have to program the PTE through the GTT ADDRESS.*/
++              for (i=0; i < num_entries; i++) {
++                      writel(((gtt_end + i * KB(4)) | 1), (private_data.gtt + j));
++                      j+=1;
++              }               
++              
++              /* I believe this will be the reserved memory refer by GMM. 
++               * So, have to update the actual PTE has been used.*/
++              private_data.gtt_entries =  num_entries - 1;                            
++
++              /* This num_entries is the remaining GTT table not fill up.  Have to 
++               * populate with scratch page. */
++              num_entries = total_gtt_entries - num_entries;
++
++              for (i=0; i < num_entries; i++)
++              {
++                      writel(agp_bridge->scratch_page, private_data.gtt + j);
++                      j+=1;
++              }
++              
++              agp_bridge->gatt_bus_addr = base_stolen_mem;
++      } else {
++              agp_bridge->gatt_bus_addr = gtt_bus_addr;
++      }
++              
++      agp_bridge->gatt_table = NULL;
++
++      AGN_DEBUG("Exit");
++
++      return 0;
++}
++
++
++static int AGP_CREATE_GATT(iegd_nap_create_gatt_table)
++{
++      const u32 i915_gtt_table_order = 6;
++      u32 mmio_bus_addr, temp2;
++      int ret;
++
++      AGN_DEBUG("Enter");
++
++      agp_bridge->gatt_table_real = NULL;
++
++      /* Find and save the address of the MMIO register */
++      pci_read_config_dword(private_data.pdev, I915_MMADDR,
++              &mmio_bus_addr);
++      mmio_bus_addr &= 0xFFF80000;
++
++      private_data.registers = (volatile u8 *) ioremap(mmio_bus_addr,
++              128 * 4096);
++      if (!private_data.registers) {
++              AGN_ERROR("ioremap failed to map mmio");
++              return (-ENOMEM);
++      }
++
++      pci_read_config_dword(private_data.pdev, I915_PTEADDR,&temp2);
++
++      /* FIXME: double check the size of area to map to pci space */
++      private_data.gtt = (volatile u32 *)ioremap(temp2, 512 * 1024);
++      if (!private_data.gtt) {
++              AGN_ERROR("ioremap failed to map gtt");
++              return (-ENOMEM);
++      }
++
++      switch(private_data.pdev->device) {
++      case PCI_DEVICE_ID_Q35:
++      case PCI_DEVICE_ID_Q35A2:
++              /* Bearlake B is difference from other chipset, especially
++               * when reading gtt based address. Probably future chipset
++               * will have same architecture as Bearlake-B and this
++               * code can move to common file*/
++              iegd_nap_iq35_gatt();
++              break;
++      case PCI_DEVICE_ID_915GD:
++      case PCI_DEVICE_ID_915AL:
++      case PCI_DEVICE_ID_945G:
++      case PCI_DEVICE_ID_945GM:
++      case PCI_DEVICE_ID_945GME:
++              if((ret = iegd_nap_9series(i915_gtt_table_order))) {
++                      return (ret);
++              }
++              break;
++      }
++
++      agp_bridge->gatt_table = NULL;
++
++      AGN_DEBUG("Exit");
++
++      return (0);
++}
++
++static void iegd_nap_cleanup(void)
++{
++
++      AGN_DEBUG("Enter");
++      iounmap((void *)private_data.gtt);
++      iounmap((void *)private_data.registers);
++      AGN_DEBUG("Exit");
++}
++
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_plb.c patch_script_temp/drivers/gpu/drm/iegd/agp/drv_plb.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/drv_plb.c     1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/agp/drv_plb.c       2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,945 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface.c
++ * $Revision: 1.36 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2007, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++#include "global.h"
++#include "intelpci.h"
++#include <linux/pagemap.h>
++#include <linux/list.h>
++
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++
++static int iegd_plb_fetch_size(void);
++static void iegd_plb_tlbflush(struct agp_memory *mem);
++static int iegd_plb_init_gtt(u32 order);
++static int AGP_CREATE_GATT(iegd_plb_create_gatt_table);
++static void iegd_plb_cleanup(void);
++static struct page *iegd_plb_vm_nopage(struct vm_area_struct *,
++      unsigned long, int *);
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,26))
++static int iegd_plb_vm_fault(struct vm_area_struct *vma, 
++      struct vm_fault *vmf);
++#endif
++static void iegd_plb_vm_close(struct vm_area_struct *);
++int iegd_plb_insert_entries(struct agp_memory *, off_t, int);
++int iegd_plb_remove_entries(struct agp_memory *, off_t, int);
++void iegd_plb_free_by_type(struct agp_memory *);
++int iegd_plb_configure(void);
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,31)
++#define PLB_DESTROY_PAGES(a,b,c)   plb_destroy_pages(a->pages[0],b,c)
++#else
++#define PLB_DESTROY_PAGES(a,b,c)   plb_destroy_pages_by_addr(gart_to_virt(a->memory[0]),b,c)
++#endif
++
++
++/* Each structure in this array contains three elements:
++ * Size of GTT in KB
++ * Number of 32-bit entries that make up the GTT
++ * Page "order" -- 2^order == number of contiguous CPU pages
++ * required to store the GTT
++ */
++struct aper_size_info_fixed iegd_plb_sizes[] =
++{
++      {256, 65536, 6},
++};
++
++bridge_driver_t drv_plb = {
++      .owner              = THIS_MODULE,
++      .size_type          = FIXED_APER_SIZE,
++      .aperture_sizes     = iegd_plb_sizes,
++      .num_aperture_sizes = 1,
++      .needs_scratch_page = TRUE,
++      .configure          = iegd_plb_configure,
++      .fetch_size         = iegd_plb_fetch_size,
++      .cleanup            = iegd_plb_cleanup,
++      .tlb_flush          = iegd_plb_tlbflush,
++      .mask_memory        = iegd_cmn_mask_memory,
++      .masks              = iegd_cmn_masks,
++      .agp_enable         = iegd_cmn_agp_enable,
++      .cache_flush        = global_cache_flush,
++      .create_gatt_table  = iegd_plb_create_gatt_table,
++      .free_gatt_table    = iegd_cmn_free_gatt_table,
++      .insert_memory      = iegd_plb_insert_entries,
++      .remove_memory      = iegd_plb_remove_entries,
++      .alloc_by_type      = iegd_cmn_alloc_by_type,
++      .free_by_type       = iegd_plb_free_by_type,
++      .agp_alloc_page     = agp_generic_alloc_page,
++      .agp_destroy_page   = agp_generic_destroy_page,
++};
++
++struct vm_operations_struct iegd_plb_vm_ops = {
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,26))
++      .fault = iegd_plb_vm_fault,
++#else
++      .nopage = iegd_plb_vm_nopage,
++#endif
++      .close = iegd_plb_vm_close
++};
++
++static DECLARE_MUTEX(client_sem);
++
++struct client_list_struct {
++      struct list_head list;
++      struct vm_area_struct *vma;
++      pid_t pid;
++};
++
++static LIST_HEAD(client_list);
++
++
++static int iegd_plb_fetch_size()
++{
++      struct aper_size_info_fixed *values;
++
++      values = A_SIZE_FIX(agp_bridge->driver->aperture_sizes);
++
++
++      agp_bridge->previous_size = agp_bridge->current_size =
++              (void *)(values);
++
++      return values[0].size;
++}
++
++static void iegd_plb_tlbflush(struct agp_memory *mem)
++{
++      u32 sgx_mmu;
++
++      /* Flush TLB */
++      sgx_mmu = readl(private_data.registers + 0x40C00);
++      sgx_mmu &= 0xFFFFFFE0;
++      sgx_mmu |= 0x0C;
++      writel(sgx_mmu, private_data.registers + 0x40C00);
++
++      wmb();
++      sgx_mmu = readl(private_data.registers + 0x40C00);
++      sgx_mmu &= 0xFFFFFFE0;
++      writel(sgx_mmu, private_data.registers + 0x40C00);
++
++      return;
++}
++
++#define IUS15_GMCH_MSAC 0x62
++
++static int iegd_plb_init_gtt(u32 order)
++{
++      u32 gtt_pgctl_reg;
++      u32 gtt_bus_addr;
++      u32 gtt_enabled = FALSE;
++      int num_entries;
++      u32 *gtt_table, *dstvirt;
++      u32 *sgx_dir, sgx_mmu;
++      u32 iegd_scratch, aperphys;
++      u8 temp;
++      struct page *gtt_table_page;
++      int i,j;
++      u32 new_order;
++
++      /* Has the system BIOS only allocateda GTT for 128MB?  If
++       * so we need to replace it with one sized for 256MB
++       */
++      pci_read_config_byte(private_data.pdev, IUS15_GMCH_MSAC, &temp);
++      if ((temp & 0x03) == 0x03) {
++              AGN_DEBUG("Graphics aperture is configured for 128MB");
++              AGN_DEBUG("Enabling 256MB split aperture");
++              private_data.split_gtt = 1;
++      } else {
++              private_data.split_gtt = 0;
++      }
++
++      gtt_pgctl_reg = readl(private_data.registers +
++              I810_PGETBL_CTL);
++      global_cache_flush();
++      gtt_bus_addr = gtt_pgctl_reg & 0xFFFFF000;
++      gtt_enabled  = gtt_pgctl_reg & I810_PGETBL_ENABLED;
++
++      /* we have to call this as early as possible after the MMIO base
++       * address is known */
++      iegd_cmn_init_gtt_entries();
++
++      /* Update the scratch registers to say that we have no stolen memory */
++      iegd_scratch = readl(private_data.registers + 0x71410);
++      if ((iegd_scratch & 0xE1DF0000) == 0xE1DF0000) {
++              /* if our vBios modify only the stolen memory bit */
++              iegd_scratch |= 0x00000004;
++              writel(iegd_scratch, private_data.registers + 0x71410);
++      } else {
++              /* Not our vBIOS but set the stolen memory anyway */
++              writel(0xE1DF0004, private_data.registers + 0x71410);
++      }
++
++      /* Reportthat we have 0 stolen memory regardless of what was
++       * really in there.  We _want_ to insert fresh pages on top of
++       * stolen memory. */
++      writel(0, private_data.registers + 0x71418);
++
++      num_entries = (1 << order) * KB(1);
++
++      private_data.upper_gtt=NULL;
++
++      /*
++       * If GTT not enabled created our own gtt table from kernel memory
++       * and initialize it to scratch page. This in case the VBIOS is
++       * not our VBIOS
++       */
++      if (!gtt_enabled) {
++              gtt_table = (u32 *)__get_free_pages(GFP_KERNEL, order);
++
++              /* Make sure allocation was successful */
++              if (NULL == gtt_table) {
++                      AGN_ERROR("Failed to allocate kernel pages");
++                      return (-ENOMEM);
++              }
++
++              for (i=0; i < (1 << order); i++) {
++                              dstvirt = gtt_table + (PAGE_SIZE * i);
++                              gtt_table_page = virt_to_page(dstvirt);
++                              AGN_DEBUG("Setting reserved bit on %p", gtt_table_page);
++                              set_bit(PG_reserved, &gtt_table_page->flags);
++              }
++
++              private_data.upper_gtt = gtt_table + 0x8000;
++              agp_bridge->gatt_bus_addr = virt_to_phys(gtt_table);
++
++              for (i = 0; i < num_entries; i++) {
++                      gtt_table[i] = (unsigned long) agp_bridge->scratch_page;
++              }
++
++              /* Enable the newly created GTT */
++              AGN_DEBUG("Enabling new GTT");
++              writel(agp_bridge->gatt_bus_addr | I810_PGETBL_ENABLED,
++                      private_data.registers+I810_PGETBL_CTL);
++              readl(private_data.registers+I810_PGETBL_CTL);
++
++      } else if (private_data.split_gtt) {
++              /* We're keeping the system BIOS created normal gtt but
++               * augmenting it with more entries
++               */
++              gtt_table = (u32 *)__get_free_pages(GFP_KERNEL, order - 1);
++
++              //AGN_DEBUG("Allocated secondary GTT at %p:%p (virt:phys)", gtt_table,
++              //      virt_to_phys(gtt_table));
++
++              /* Make sure allocation was successful */
++              if (NULL == gtt_table) {
++                      AGN_ERROR("Failed to allocate kernel pages");
++                      return (-ENOMEM);
++              }
++
++              private_data.upper_gtt = gtt_table;
++
++              for (i = 0; i < num_entries/2; i++) {
++                      gtt_table[i] = (unsigned long) agp_bridge->scratch_page;
++              }
++
++              agp_bridge->gatt_bus_addr = gtt_bus_addr;
++
++      } else {
++
++              agp_bridge->gatt_bus_addr = gtt_bus_addr;
++
++      }
++
++      /*
++       * Now that the GTT exists and has been configured, enable
++       * the SGX MMU to point to the GTT as its page tables
++       */
++
++      /* The directory level is a single page of memory */
++      sgx_dir = (u32 *)__get_free_pages(GFP_KERNEL, 0);
++      if (NULL == sgx_dir ) {
++              AGN_ERROR("Failed to allocate kernel page");
++              return (-ENOMEM);
++      }
++
++      /* Mark the directory so that it is not swappable */
++      gtt_table_page = virt_to_page( sgx_dir );
++      set_bit(PG_reserved, &gtt_table_page->flags);
++
++      memset (sgx_dir, 0, PAGE_SIZE);
++
++      /* Initialize the directory so that each used page table
++       * is addressed
++       */
++
++      /* Make sure entire SGX directory is populated */
++      for (i = 0; i < 0x400; i++) {
++              sgx_dir[i] = agp_bridge->gatt_bus_addr | 0x01;
++      }
++
++      pci_read_config_dword(private_data.pdev, I915_GMADDR, &aperphys);
++      aperphys &= PCI_BASE_ADDRESS_MEM_MASK;
++      aperphys = aperphys >> 22;
++
++      if (private_data.split_gtt) {
++              /* Only use half of the entries */
++              new_order = order-1;
++      } else {
++              /* Full GTT, use all entries */
++              new_order = order;
++      }
++
++      for (i = 0; i < (1 << new_order); i++) {
++              /* Set the address for 2D/3D*/
++              sgx_dir[i] = agp_bridge->gatt_bus_addr + (PAGE_SIZE * i);
++              /* Set the address for hostport */
++              sgx_dir[i+aperphys] = agp_bridge->gatt_bus_addr + (PAGE_SIZE * i);
++
++              /* Mark them as valid */
++              sgx_dir[i] |= 0x01;
++              sgx_dir[i+aperphys] |= 0x01;
++
++              //AGN_DEBUG("Directory %d is %08lx", i, sgx_dir[i]);
++      }
++
++      /* If we're in split gtt mode, set the directory entries of the second
++       * gtt
++       */
++
++      if (private_data.split_gtt) {
++              j=0;
++              for (i = (1 << (order - 1)); i < (1 << order); i++) {
++                      /* Set the address for 2D/3D*/
++                      sgx_dir[i] = virt_to_phys(private_data.upper_gtt) + (PAGE_SIZE * j);
++                      /* Set the address for hostport */
++                      sgx_dir[i+aperphys] = virt_to_phys(private_data.upper_gtt) + (PAGE_SIZE * j);
++
++                      j++;
++
++                      /* Mark them as valid */
++                      sgx_dir[i] |= 0x01;
++                      sgx_dir[i+aperphys] |= 0x01;
++                      //AGN_DEBUG("Directory %d is %08lx", i, sgx_dir[i]);
++              }
++      }
++
++      /*
++       * Program the directory's address into the MMU control
++       * register
++       */
++
++      /* Flush the cache */
++      flush_cache_all();
++      global_cache_flush();
++
++      /* Invalidate directory cache */
++      sgx_mmu = readl(private_data.registers + 0x40C00);
++      sgx_mmu |= 0x1E;
++      writel(sgx_mmu, private_data.registers + 0x40C00);
++      wmb();
++      readl(private_data.registers + 0x40C00);
++
++      writel(virt_to_phys(sgx_dir), private_data.registers + 0x40C84);
++      wmb();
++      readl(private_data.registers + 0x40C84);
++
++      /* Turn on host access to aperture via the MMU */
++      sgx_mmu = readl(private_data.registers + 0x40C00);
++      sgx_mmu &= 0xFFFE0000;
++      writel(sgx_mmu, private_data.registers + 0x40C00);
++      wmb();
++      readl(private_data.registers + 0x40C00);
++
++      return 0;
++}
++
++
++static int AGP_CREATE_GATT(iegd_plb_create_gatt_table)
++{
++      u32 order;
++      u32 mmio_bus_addr, temp2;
++      int ret;
++      u32 gtt_size;
++      unsigned char msac;
++      u32 msac_gtt_size;
++
++      agp_bridge->gatt_table_real = NULL;
++
++      order=A_SIZE_FIX(agp_bridge->current_size)->page_order;
++
++      /* Find and save the address of the MMIO register */
++      pci_read_config_dword(private_data.pdev, I915_MMADDR,
++              &mmio_bus_addr);
++      mmio_bus_addr &= 0xFFF80000;
++
++      private_data.registers = (volatile u8 *) ioremap(mmio_bus_addr,
++              KB(512));
++
++      if (!private_data.registers) {
++              AGN_ERROR("ioremap failed to map mmio");
++              return (-ENOMEM);
++      }
++
++      pci_read_config_dword(private_data.pdev, I915_PTEADDR, &temp2);
++
++      /* Get the GTT size via MSAC */
++      pci_read_config_byte(private_data.pdev, IUS15_GMCH_MSAC, &msac);
++      
++      switch (msac & 0x03) {
++      case 0x02: /* 256K GTT size */
++              msac_gtt_size = KB(256);
++              break;
++      case 0x03: /* 128K GTT size */
++      default:
++              msac_gtt_size = KB(128);
++              break;
++      }
++      
++      gtt_size = A_SIZE_FIX(agp_bridge->current_size)->num_entries * sizeof(u32);
++
++      if (gtt_size!=msac_gtt_size) {
++              AGN_DEBUG("MSAC GTT size 0x%08x, bridge GTT size 0x%08x; using MSAC", 
++                      msac_gtt_size, gtt_size);
++              gtt_size = msac_gtt_size;
++      }
++
++      private_data.gtt = (volatile u32 *)ioremap(temp2, gtt_size);
++
++      if (!private_data.gtt) {
++              AGN_ERROR("ioremap failed to map gtt");
++              return (-ENOMEM);
++      }
++
++      if((ret = iegd_plb_init_gtt(order))) {
++              return (ret);
++      }
++
++      agp_bridge->gatt_table = NULL;
++
++      return (0);
++}
++
++static void iegd_plb_cleanup(void)
++{
++
++      iounmap((void *)private_data.gtt);
++      iounmap((void *)private_data.registers);
++}
++
++
++static void iegd_plb_vm_close(struct vm_area_struct *vma)
++{
++      struct list_head *tmp;
++      struct client_list_struct *entry;
++
++      down(&client_sem);
++      list_for_each(tmp, &client_list) {
++              entry = list_entry(tmp, struct client_list_struct, list);
++              if (entry->vma == vma) {
++                      list_del(&entry->list);
++                      kfree(entry);
++                      AGN_DEBUG("Removed VMA %p from client list", vma);
++                      break;
++              }
++      }
++      up(&client_sem);
++}
++
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,26))
++static int iegd_plb_vm_fault(struct vm_area_struct *vma,
++      struct vm_fault *vmf)
++{
++      int type=0; /* New fault handler doesn't use type */
++      unsigned long address = (unsigned long) vmf->virtual_address;
++
++      vmf->page = iegd_plb_vm_nopage(vma, address, &type);
++
++      return 0;
++}
++#endif
++
++static struct page *iegd_plb_vm_nopage(struct vm_area_struct *vma,
++      unsigned long address,
++      int *type)
++{
++      unsigned long offset=0;
++      unsigned long physaddr=0;
++      struct page *page;
++      struct list_head *tmp;
++      struct client_list_struct *entry;
++      int flag=0;
++
++      /* On the Intel SCH US15, we don't have a traditional aperture.  As
++       * a result, we're substituting the base of stolen memory
++       * as the aperture address.
++       *
++       * Mmaps relative to the base of stolen memory will be
++       * treated as mmaps covering parts of our virtual aperture.
++       *
++       * Given that a single surface may be mapped, and not the
++       * whole virtual aperture, we must translate the values
++       * received so that they are relative to our 0-based virtual
++       * aperture.
++       */
++      offset = (vma->vm_pgoff << PAGE_SHIFT) - agp_bridge->gart_bus_addr;
++
++      /* All pages returned must be noncached or write-combined*/
++      if (agp_use_pat()) {
++              pgprot_val(vma->vm_page_prot) &= ~(_PAGE_PCD | _PAGE_PWT);
++              pgprot_val(vma->vm_page_prot) |= _PAGE_PAT;
++      } else {
++              vma->vm_page_prot = pgprot_noncached(vma->vm_page_prot);
++      }
++
++      /* Access to the virtual frame buffer does not appear to
++       * call open properly before faulting.  As a result, we
++       * need to do this housekeeping at each fault.
++       */
++      down(&client_sem);
++      list_for_each(tmp, &client_list) {
++              entry = list_entry(tmp, struct client_list_struct, list);
++              if (entry->vma == vma) {
++                      flag=1;
++              }
++      }
++
++      if (!flag) {
++              entry = kmalloc(sizeof(struct client_list_struct), GFP_KERNEL);
++              if (entry) {
++                      entry->vma = vma;
++                      list_add(&(entry->list), &client_list);
++                      AGN_DEBUG("Added VMA %p to client list", vma);
++
++                      AGN_DEBUG("Scratch:  %p", virt_to_page(agp_bridge->scratch_page));
++
++              } else {
++                      AGN_ERROR("Failed to add VMA to client list");
++              }
++      }
++      up(&client_sem);
++
++      offset += address - vma->vm_start;
++
++      if (private_data.split_gtt && ((offset >> PAGE_SHIFT)) >= 0x8000) {
++              physaddr = readl(private_data.upper_gtt + (offset >> PAGE_SHIFT)
++                      - 0x8000);
++      } else {
++      physaddr = readl(private_data.gtt + (offset >> PAGE_SHIFT));
++      }
++
++
++      physaddr &= PAGE_MASK;
++
++      if (!pfn_valid(physaddr >> PAGE_SHIFT)) {
++              AGN_ERROR("Referencing non-existant struct page.\n");
++      }
++
++      if (physaddr >= agp_bridge->gart_bus_addr) {
++              AGN_DEBUG("Faulted before insert, returning scratch page");
++              page = virt_to_page(__va(agp_bridge->scratch_page));
++      } else {
++              page = virt_to_page(__va(physaddr));
++      }
++
++      get_page(page);
++
++      if (type) {
++              *type = VM_FAULT_MINOR;
++      }
++
++      return (page);
++}
++
++
++int iegd_plb_insert_entries(struct agp_memory *mem,
++      off_t pg_start, int type)
++{
++      int i,j,num_entries, zap;
++      void *temp;
++      struct list_head *tmp;
++      struct client_list_struct *entry;
++      unsigned long addr_start=0;
++      unsigned long addr_end=0;
++      unsigned long addr_offset=0;
++      unsigned long vaddr;
++      char *srcvirt;
++      unsigned long srcphys;
++      unsigned long dstphys;
++      pgd_t *pgd;
++      pud_t *pud;
++      pmd_t *pmd;
++      pte_t *pte;
++
++      temp = agp_bridge->current_size;
++      num_entries = A_SIZE_FIX(temp)->num_entries;
++
++      /* If we try to write beyond gtt table, return error */
++      if ((pg_start + mem->page_count) > num_entries) {
++              AGN_ERROR("Trying to write beyond aperture limit");
++              AGN_DEBUG("pg_start=0x%.8lx, mem->page_count=%d,"
++                              "num_entries=%d", pg_start, mem->page_count,
++                              num_entries);
++              return -EINVAL;
++      }
++
++      /* The i830 can't check the GTT for entries since its read only,
++       * depend on the caller to make the correct offset decisions.
++       */
++
++      if ((type != 0 && type != AGP_PHYS_MEMORY) ||
++              (mem->type != 0 && mem->type != AGP_PHYS_MEMORY)) {
++              AGN_ERROR("Unsupported memory type");
++              AGN_DEBUG("mem->type=%x, type=%x", mem->type, type);
++              return -EINVAL;
++      }
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      for (i = 0, j = pg_start; i < mem->page_count; i++, j++) {
++
++              /* If we're inserting into stolen memory, we need to read
++               * the contents of the original page that occupied this space
++               */
++              if (j < private_data.gtt_entries) {
++                      srcphys=readl(private_data.gtt+j);
++                      srcphys &= PAGE_MASK;
++
++                      if (srcphys >= agp_bridge->gart_bus_addr) {
++                              srcvirt=ioremap(srcphys, PAGE_SIZE);
++
++                              if (!srcvirt) {
++                                      AGN_ERROR("Could not map stolen memory source %d:%08lX", j, srcphys);
++                                      return -ENOMEM;
++                              }
++
++                              dstphys=AGP_MASK_GTT();
++                              dstphys &= PAGE_MASK;
++
++                              copy_page(__va(dstphys), srcvirt);
++
++                              iounmap(srcvirt);
++                      } else {
++                              AGN_ERROR ("Tried to copy a page not in stolen memory %d:%08lX", j, srcphys);
++                      }
++              }
++
++              if (private_data.split_gtt && (j >= 0x8000)) {
++                      writel(AGP_MASK_GTT(), private_data.upper_gtt + j - 0x8000);
++              } else {
++              writel(AGP_MASK_GTT(), private_data.gtt+j);
++              readl(private_data.gtt+j);      /* PCI Posting. */
++              }
++
++              down(&client_sem);
++              list_for_each(tmp, &client_list) {
++                      entry = list_entry(tmp, struct client_list_struct, list);
++
++                      /* We need to handle invalidating VMA's that are only mapping
++                       * a portion of the virtual aperture.  Calculate what if
++                       * any invalidated pages need to be zapped
++                       */
++                      addr_start = (entry->vma->vm_pgoff << PAGE_SHIFT)
++                              - agp_bridge->gart_bus_addr;
++                      addr_end = addr_start + (entry->vma->vm_end - entry->vma->vm_start);
++                      addr_offset = j << PAGE_SHIFT;
++
++                      vaddr = entry->vma->vm_start + (addr_offset - addr_start);
++
++                      zap=0;
++                      pgd=NULL;
++                      pud=NULL;
++                      pmd=NULL;
++                      pte=NULL;
++
++                      pgd = pgd_offset(entry->vma->vm_mm, vaddr);
++                      if (!pgd_none(*pgd)) {
++                              pud = pud_offset(pgd, vaddr);
++                              if (!pud_none(*pud)) {
++                                      pmd = pmd_offset(pud, vaddr);
++                                      if (!pmd_none(*pmd)) {
++                                              pte = pte_offset_map(pmd, vaddr);
++                                              if (!pte_none(*pte)) {
++                                                      zap=1;
++                                              }
++                                      }
++                              }
++                      }
++
++                      /* Only zap a page if it falls within the mapped region
++                       * and it has previously faulted
++                       */
++                      if (zap && (addr_offset >= addr_start) &&
++                                      (addr_offset < addr_end)) {
++
++                              if (!page_mapcount(pte_page(*pte))) {
++                                      AGN_ERROR("ERROR No mapcount");
++                                      AGN_DEBUG("ZI %p %08lX %d %d %p", pte_page(*pte),
++                                      pte_page(*pte)->flags, page_count(pte_page(*pte)),
++                                      page_mapcount(pte_page(*pte)), pte_page(*pte)->mapping);
++                              } else {
++                                      atomic_add_negative(-1, &pte_page(*pte)->_mapcount);
++                                      put_page(pte_page(*pte));
++                                      dec_mm_counter(entry->vma->vm_mm, file_rss);
++                              }
++
++                              pte_clear(entry->vma->vm_mm, vaddr, pte);
++                      }
++
++                      if(pte) {
++                              pte_unmap(pte);
++                      }
++              }
++              up(&client_sem);
++      }
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      AGN_DEBUG("Exit");
++      return 0;
++}
++
++
++int iegd_plb_remove_entries(struct agp_memory *mem,
++      off_t pg_start, int type)
++{
++      int i, zap;
++      struct list_head *tmp;
++      struct client_list_struct *entry;
++      unsigned long physaddr;
++      unsigned long addr_start=0;
++      unsigned long addr_end=0;
++      unsigned long addr_offset=0;
++      unsigned long vaddr;
++      pgd_t *pgd;
++      pud_t *pud;
++      pmd_t *pmd;
++      pte_t *pte;
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      for (i = pg_start; i < (mem->page_count + pg_start); i++) {
++              if (i < private_data.gtt_entries) {
++                      physaddr = agp_bridge->gart_bus_addr + (i * PAGE_SIZE);
++                      physaddr |= 0x01;
++                      writel(physaddr, private_data.gtt+i);
++                      readl(private_data.gtt+i);      /* PCI Posting. */
++              } else {
++                      if (private_data.split_gtt && (i >= 0x8000)) {
++                              writel(agp_bridge->scratch_page, private_data.upper_gtt + i - 0x8000);
++              } else {
++                      writel(agp_bridge->scratch_page, private_data.gtt+i);
++                              readl(private_data.gtt+i);      /* PCI Posting. */
++                      }
++              }
++
++              down(&client_sem);
++              list_for_each(tmp, &client_list) {
++                      entry = list_entry(tmp, struct client_list_struct, list);
++
++                      /* We need to handle invalidating VMA's that are only mapping
++                       * a portion of the virtual aperture.  Calculate what if
++                       * any invalidated pages need to be zapped
++                       */
++                      addr_start = (entry->vma->vm_pgoff << PAGE_SHIFT)
++                              - agp_bridge->gart_bus_addr;
++                      addr_end = addr_start + (entry->vma->vm_end - entry->vma->vm_start);
++                      addr_offset = i << PAGE_SHIFT;
++
++                      vaddr = entry->vma->vm_start + (addr_offset - addr_start);
++
++                      zap=0;
++                      pgd=NULL;
++                      pud=NULL;
++                      pmd=NULL;
++                      pte=NULL;
++
++                      /* Look up page table entries for all VMAs that currently
++                       * have the virtual aperture mapped -- to see if the page
++                       * has ever faulted
++                       */
++                      pgd = pgd_offset(entry->vma->vm_mm, vaddr);
++                      if (!pgd_none(*pgd)) {
++                              pud = pud_offset(pgd, vaddr);
++                              if (!pud_none(*pud)) {
++                                      pmd = pmd_offset(pud, vaddr);
++                                      if (!pmd_none(*pmd)) {
++                                              pte = pte_offset_map(pmd, vaddr);
++                                              if (!pte_none(*pte)) {
++                                                      zap=1;
++                                              }
++                                      }
++                              }
++                      }
++
++                      /* Only zap a page if it falls within the mapped region
++                       * and it has previously faulted
++                       */
++                      if (zap && (addr_offset >= addr_start) &&
++                                      (addr_offset < addr_end)) {
++
++
++                              if (!page_mapcount(pte_page(*pte))) {
++                                      AGN_ERROR("ERROR No mapcount");
++                                      AGN_DEBUG("ZR %p %08lX %d %d %p", pte_page(*pte),
++                                      pte_page(*pte)->flags, page_count(pte_page(*pte)),
++                                      page_mapcount(pte_page(*pte)), pte_page(*pte)->mapping);
++                              } else {
++                                      atomic_add_negative(-1, &pte_page(*pte)->_mapcount);
++                                      put_page(pte_page(*pte));
++                                      dec_mm_counter(entry->vma->vm_mm, file_rss);
++                              }
++
++                              pte_clear(entry->vma->vm_mm, vaddr, pte);
++                      }
++
++                      if(pte) {
++                              pte_unmap(pte);
++                      }
++              }
++              up(&client_sem);
++      }
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(mem);
++
++      return 0;
++}
++
++
++int iegd_plb_configure(void)
++{
++      struct aper_size_info_fixed *current_size;
++      u32 temp;
++      u16 gmch_ctrl;
++      int i;
++
++      current_size = A_SIZE_FIX(agp_bridge->current_size);
++
++      /* SCH US15 uses the Base of Stolen Memory as it's artificial
++       * aperture address
++       */
++      pci_read_config_dword(private_data.pdev, 0x5C, &temp);
++      agp_bridge->gart_bus_addr = (temp & PCI_BASE_ADDRESS_MEM_MASK);
++
++      pci_read_config_word(agp_bridge->dev,I830_GMCH_CTRL,&gmch_ctrl);
++      gmch_ctrl |= I830_GMCH_ENABLED;
++      pci_write_config_word(agp_bridge->dev,I830_GMCH_CTRL,gmch_ctrl);
++
++      global_cache_flush();
++      agp_bridge->driver->tlb_flush(0);
++
++      writel(agp_bridge->gatt_bus_addr|I810_PGETBL_ENABLED,
++      private_data.registers+I810_PGETBL_CTL);
++      /* PCI Posting. */
++      readl(private_data.registers+I810_PGETBL_CTL);
++
++      if (agp_bridge->driver->needs_scratch_page) {
++
++              for (i = private_data.gtt_entries; i < current_size->num_entries; i++) {
++                      if ((private_data.split_gtt) && (i >= 0x8000)) {
++                              writel(agp_bridge->scratch_page, private_data.upper_gtt+i-0x8000);
++                              readl(private_data.upper_gtt+i-0x8000);
++                      } else {
++                              writel(agp_bridge->scratch_page, private_data.gtt+i);
++                              readl(private_data.gtt+i);  /* PCI Posting. */
++                      }
++              }
++      }
++
++      global_cache_flush();
++
++      return 0;
++}
++
++#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,31)
++static void plb_destroy_pages_by_addr(void *addr, size_t pg_count, unsigned int order)
++{
++        struct page *page;
++
++        AGN_DEBUG("Enter");
++
++        if (addr == NULL) {
++                return;
++        }
++
++        page = virt_to_page(addr);
++        SET_PAGES_WB(page, pg_count);
++        GLOBAL_FLUSH_TLB();
++        put_page(page);
++        AGP_UNLOCK_PAGE(page);
++
++        if(page_count(page) > 1) {
++                free_pages((unsigned long)addr, order);
++        }
++
++        atomic_dec(&agp_bridge->current_memory_agp);
++
++        AGN_DEBUG("Exit");
++}
++#else
++static void plb_destroy_pages(struct page *page, size_t pg_count, unsigned int order)
++{
++        //AGN_LOG("IN plb_destroy_pages");
++      AGN_DEBUG("Enter");
++
++      if (page == NULL) {
++              return;
++      }
++
++      SET_PAGES_WB(page, pg_count);
++      GLOBAL_FLUSH_TLB();
++      put_page(page);
++      AGP_UNLOCK_PAGE(page);
++
++      if(page_count(page) > 1) {
++              __free_pages(page, order);
++      }
++
++      atomic_dec(&agp_bridge->current_memory_agp);
++
++      AGN_DEBUG("Exit");
++}
++#endif
++
++void iegd_plb_free_by_type(struct agp_memory *curr)
++{
++      unsigned int order;
++
++      switch (curr->page_count) {
++      case 1:
++              order = 0;   /* pg_count = 1 => 2 ^ 0 */
++              break;
++      case 4:
++              order = 2;   /* pg_count = 4 => 2 ^ 2 */
++              break;
++      case 8:
++              order = 3;   /* pg_count = 8 => 2 ^ 3 */
++              break;
++      default:
++              /* This case should never happen */
++              return;
++      }
++
++      agp_free_key(curr->key);
++      if(curr->type == AGP_PHYS_MEMORY) {
++                PLB_DESTROY_PAGES(curr, curr->page_count, order);
++              IGD_FREE_MEM(curr);
++      }
++
++      kfree(curr);
++
++}
++
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/global.c patch_script_temp/drivers/gpu/drm/iegd/agp/global.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/global.c      1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/agp/global.c        2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,142 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: global.c
++ * $Revision: 1.17 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++#include "global.h"
++#include "intelpci.h"
++
++/* will point to the current table entries for
++ * current chipset */
++gart_dispatch_t *gart_id;
++
++/* Private data that contained chipset information */
++dev_private_data_t private_data;
++
++int iegd_find_device(u16 device)
++{
++      struct pci_dev *device_pdev;
++
++      device_pdev = pci_get_device(PCI_VENDOR_ID_INTEL, device, NULL);
++      /* Check for function 0. */
++      if(device_pdev && PCI_FUNC(device_pdev->devfn) != 0) {
++              device_pdev = pci_get_device(PCI_VENDOR_ID_INTEL,
++                      device, device_pdev);
++      }
++
++      if(!device_pdev) {
++              return 0;
++      }
++
++      AGN_DEBUG("Device found = 0x%x\n", device);
++      private_data.pdev = device_pdev;
++      return 1;
++
++}
++
++/**
++ * This function is to hook the function pointer that
++ * belong to specific chipset, other than that this
++ * is the place for customization of the structure
++ * in case chipset in the same family have different
++ * architecture. Make sure to add new device id here
++ * if new device been introduce.
++ *
++ * parameter:
++ *    driver_hook - Pointer to hold the structure
++ *    did  - device id
++ *    list - lookup table for the chipset family
++ *
++ * return value:
++ *    0 - success
++ *    1 - No function hook
++ */
++int bridge_driver_init(bridge_driver_t **driver_hook,
++      unsigned short did, dispatch_table_t *list )
++{
++
++      (*driver_hook) = (bridge_driver_t *)dispatch_acquire(
++              gart_id->device_id, list);
++
++      /* For specific chipset implementation assign the pointer
++       * here. */
++      switch(did) {
++              case PCI_DEVICE_ID_GM45:
++              case PCI_DEVICE_ID_ELK:
++              case PCI_DEVICE_ID_Q45:
++              case PCI_DEVICE_ID_G45:
++              case PCI_DEVICE_ID_G41:
++                      (*driver_hook)->aperture_sizes = iegd_igm45_sizes;
++                      (*driver_hook)->num_aperture_sizes = 2;
++                      break;
++              case PCI_DEVICE_ID_Q35:
++              case PCI_DEVICE_ID_Q35A2:
++                      (*driver_hook)->aperture_sizes = iegd_iq35_sizes;
++                      (*driver_hook)->num_aperture_sizes = 3;
++                      break;
++              case PCI_DEVICE_ID_915GD:
++              case PCI_DEVICE_ID_915AL:
++              case PCI_DEVICE_ID_945G:
++              case PCI_DEVICE_ID_945GM:
++              case PCI_DEVICE_ID_945GME:
++                      (*driver_hook)->aperture_sizes = iegd_i915_sizes;
++                      (*driver_hook)->num_aperture_sizes = 4;
++                      break;
++              case PCI_DEVICE_ID_965G:
++              case PCI_DEVICE_ID_946GZ:
++              case PCI_DEVICE_ID_G965:
++              case PCI_DEVICE_ID_Q965:
++              case PCI_DEVICE_ID_GM965:
++              case PCI_DEVICE_ID_GME965:
++                      (*driver_hook)->aperture_sizes = iegd_i965_sizes;
++                      (*driver_hook)->num_aperture_sizes = 4;
++                      break;
++              case PCI_DEVICE_ID_810:
++              case PCI_DEVICE_ID_810DC:
++              case PCI_DEVICE_ID_810E:
++              case PCI_DEVICE_ID_815:
++                      (*driver_hook)->aperture_sizes = intel_i810_sizes;
++                      (*driver_hook)->num_aperture_sizes = 2;
++                      (*driver_hook)->create_gatt_table = agp_generic_create_gatt_table;
++                      (*driver_hook)->free_gatt_table   = agp_generic_free_gatt_table;
++                      break;
++              case PCI_DEVICE_ID_830M:
++              case PCI_DEVICE_ID_845G:
++              case PCI_DEVICE_ID_855:
++              case PCI_DEVICE_ID_865G:
++                      (*driver_hook)->aperture_sizes = intel_i830_sizes;
++                      (*driver_hook)->num_aperture_sizes = 4;
++                      (*driver_hook)->create_gatt_table = iegd_alm_create_gatt_table;
++                      (*driver_hook)->free_gatt_table   = iegd_cmn_free_gatt_table;
++                      break;
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++              case PCI_DEVICE_ID_PLB:
++                      (*driver_hook)->aperture_sizes = iegd_plb_sizes;
++                      (*driver_hook)->num_aperture_sizes = 1;
++                      break;
++#endif
++              default:
++                      return -1;
++      }
++
++      return 0;
++
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/pci.c patch_script_temp/drivers/gpu/drm/iegd/agp/pci.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/agp/pci.c 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/agp/pci.c   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,501 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: pci.c
++ * $Revision: 1.31 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc.,
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++#include <linux/init.h>
++#include <linux/module.h>
++#include <linux/pci.h>
++#include <linux/agp_backend.h>
++#include "agp.h"
++#include "global.h"
++#include "igd_gart.h"
++#include "intelpci.h"
++#include "igd_abs.h"
++
++static gart_dispatch_t gart_pci_device_table[] = {
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_810, PCI_DEVICE_ID_810,
++       "810", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_810DC, PCI_DEVICE_ID_810DC,
++       "810DC", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_810E, PCI_DEVICE_ID_810E,
++       "810E", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_815, PCI_DEVICE_ID_815,
++       "815", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_830M, PCI_DEVICE_ID_830M,
++       "830M", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_835, PCI_DEVICE_ID_835,
++       "835", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_845G, PCI_DEVICE_ID_845G,
++       "845G", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_855, PCI_DEVICE_ID_855,
++       "855", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_865G, PCI_DEVICE_ID_865G,
++       "865G", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_915GD, PCI_DEVICE_ID_915GD,
++       "915GD", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_910GL, PCI_DEVICE_ID_910GL,
++       "910GL", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_915AL, PCI_DEVICE_ID_915AL,
++       "915AL", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_945G, PCI_DEVICE_ID_945G,
++       "945G", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_945GM, PCI_DEVICE_ID_945GM,
++       "945GM", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_945GME, PCI_DEVICE_ID_945GME,
++       "945GME/GSE", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_Q35, PCI_DEVICE_ID_Q35,
++       "Q33/Q35", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_Q35A2, PCI_DEVICE_ID_Q35A2,
++       "Q33/Q35", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_965G, PCI_DEVICE_ID_965G,
++       "965G", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_946GZ, PCI_DEVICE_ID_946GZ,
++       "946GZ", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_G965, PCI_DEVICE_ID_G965,
++       "G965", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_Q965, PCI_DEVICE_ID_Q965,
++       "Q965", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_GM965, PCI_DEVICE_ID_GM965,
++       "GM965", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_GME965, PCI_DEVICE_ID_GME965,
++       "GLE960/GME965", 0, 0, 0,
++      },
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_PLB, PCI_DEVICE_ID_PLB,
++       "US15", 0, 0, 0,
++      },
++#endif
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_GM45, PCI_DEVICE_ID_GM45,
++       "GM45/GS45/GL40", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_ELK, PCI_DEVICE_ID_ELK,
++       "Q45", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_Q45, PCI_DEVICE_ID_Q45,
++       "Q45", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_G45, PCI_DEVICE_ID_G45,
++       "G45", 0, 0, 0,
++      },
++      {PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_BRIDGE_G41, PCI_DEVICE_ID_G41,
++       "G41", 0, 0, 0,
++      },
++};
++
++/* PCI device id that supported by IEGD */
++struct pci_device_id iegd_pci_table[] = {
++      ID(PCI_DEVICE_ID_BRIDGE_810),
++      ID(PCI_DEVICE_ID_BRIDGE_810DC),
++      ID(PCI_DEVICE_ID_BRIDGE_810E),
++      ID(PCI_DEVICE_ID_BRIDGE_815),
++      ID(PCI_DEVICE_ID_BRIDGE_830M),
++      ID(PCI_DEVICE_ID_BRIDGE_845G),
++      ID(PCI_DEVICE_ID_BRIDGE_855),
++      ID(PCI_DEVICE_ID_BRIDGE_865G),
++      ID(PCI_DEVICE_ID_BRIDGE_915GD),
++      ID(PCI_DEVICE_ID_BRIDGE_915AL),
++      ID(PCI_DEVICE_ID_BRIDGE_945G),
++      ID(PCI_DEVICE_ID_BRIDGE_945GM),
++      ID(PCI_DEVICE_ID_BRIDGE_945GME),
++      ID(PCI_DEVICE_ID_BRIDGE_965G),
++      ID(PCI_DEVICE_ID_BRIDGE_946GZ),
++      ID(PCI_DEVICE_ID_BRIDGE_G965),
++      ID(PCI_DEVICE_ID_BRIDGE_Q965),
++      ID(PCI_DEVICE_ID_BRIDGE_GM965),
++      ID(PCI_DEVICE_ID_BRIDGE_GME965),
++      ID(PCI_DEVICE_ID_BRIDGE_Q35),
++      ID(PCI_DEVICE_ID_BRIDGE_Q35A2),
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++      ID(PCI_DEVICE_ID_BRIDGE_PLB),
++#endif
++      ID(PCI_DEVICE_ID_BRIDGE_GM45),
++      ID(PCI_DEVICE_ID_BRIDGE_ELK),
++      ID(PCI_DEVICE_ID_BRIDGE_Q45),
++      ID(PCI_DEVICE_ID_BRIDGE_G45),
++      ID(PCI_DEVICE_ID_BRIDGE_G41),
++      { }
++};
++
++MODULE_DEVICE_TABLE(pci, iegd_pci_table);
++
++#include <asm/tlbflush.h>
++
++static int agp_has_pat = 0;
++
++int agp_use_pat(void)
++{
++      return agp_has_pat;
++}
++EXPORT_SYMBOL(agp_use_pat);
++
++static void agp_pat_ipi_handler(void *notused)
++{
++      u32 v1, v2;
++
++      rdmsr(MSR_IA32_CR_PAT, v1, v2);
++      v2 &= 0xFFFFFFF8;
++      v2 |= 0x00000001;
++      wbinvd();
++      wrmsr(MSR_IA32_CR_PAT, v1, v2);
++      __flush_tlb_all();
++}
++
++/*
++ * Set i386 PAT entry PAT4 to Write-combining memory type on all processors.
++ */
++
++void agp_init_pat(void)
++{
++
++      if (!boot_cpu_has(X86_FEATURE_PAT)) {
++              AGN_ERROR("PAT Feature not available\n");
++              return;
++      }
++      AGN_DEBUG("Enabled PAT");
++      if (ON_EACH_CPU(agp_pat_ipi_handler, NULL, 1, 1) != 0) {
++              AGN_ERROR("Timed out setting up CPU PAT.\n");
++              return;
++      }
++      agp_has_pat = 1;
++}
++EXPORT_SYMBOL(agp_init_pat);
++
++
++/* This function get called by PCI core when one of the chipset
++ * above detected */
++static int __devinit iegd_intel_probe(
++      struct pci_dev *pdev,
++      const struct pci_device_id *ent)
++{
++      bridge_data_t *bridge_device;
++      u8 cap_ptr = 0;
++      struct resource *r;
++      int ret;
++
++      AGN_DEBUG("Enter");
++      AGN_LOG("Initialize IEGD agpgart and drm");
++
++      /* Make sure this probing is called because of prefered
++       * chipsets. This is because to make sure we initialize
++       * chipset that belong to deregister gart module */
++      if(!gart_id->bridge_pdev ||
++              (gart_id->bridge_pdev->device != pdev->device)) {
++              return -ENODEV;
++      }
++
++      cap_ptr = pci_find_capability(pdev, PCI_CAP_ID_AGP);
++
++      /* Allocate memory for the bridge. This data structure then will be
++       * used by the agp backend and frontend */
++      gart_id->bridge_info = agp_alloc_bridge();
++      if(gart_id->bridge_info == NULL) {
++              return -ENOMEM;
++      }
++
++      /* Check for the device and initialize private data */
++      if(!iegd_find_device(gart_id->device_id)) {
++              agp_put_bridge(gart_id->bridge_info);
++              AGN_ERROR("Unsupported device: %x", gart_id->device_id);
++              return -ENODEV;
++      }
++
++      bridge_device = gart_id->bridge_info;
++
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5) 
++      if (gart_id->device_id == PCI_DEVICE_ID_PLB) {
++              agp_init_pat();
++              bridge_device->vm_ops = &iegd_plb_vm_ops;
++      }
++#endif
++
++      AGN_DEBUG("driver %p, id %X, list %p", bridge_device->driver,
++              gart_id->device_id, driver_dispatch_list);
++      /* Dispatch the core function based on the chipset id */
++      ret = bridge_driver_init((bridge_driver_t **) &bridge_device->driver,
++                      gart_id->device_id, driver_dispatch_list);
++
++      if(ret) {
++              agp_put_bridge(gart_id->bridge_info);
++              AGN_ERROR("Device found but no function hook");
++              return -ENODEV;
++      }
++
++      bridge_device->dev = pdev;
++      bridge_device->capndx = cap_ptr;
++      bridge_device->dev_private_data = &private_data;
++
++      AGN_LOG("Intel %s chipset detected", gart_id->name);
++
++      r = &pdev->resource[0];
++    if (!r->start && r->end) {
++              if (pci_assign_resource(pdev, 0)) {
++                      AGN_ERROR("could not assign resource 0");
++                      agp_put_bridge(gart_id->bridge_info);
++                      return -ENODEV;
++              }
++      }
++
++      if(pci_enable_device(pdev)) {
++              AGN_ERROR("Unable to enable PCI device");
++              agp_put_bridge(gart_id->bridge_info);
++              return -ENODEV;
++      }
++
++      if(cap_ptr) {
++              pci_read_config_dword(pdev,
++                              bridge_device->capndx+PCI_AGP_STATUS,
++                              &bridge_device->mode);
++      }
++
++      pci_set_drvdata(pdev, bridge_device);
++      AGN_DEBUG("Exit");
++      return agp_add_bridge(bridge_device);
++}
++
++static void iegd_intel_remove(struct pci_dev *pdev)
++{
++      AGN_LOG("Exit from module");
++}
++
++int iegd_intel_suspend(struct pci_dev *dev, pm_message_t state)
++{
++      int pm_cap;
++      struct pci_dev *iegd_dev;
++      unsigned short pci_pm_csr;
++
++      AGN_DEBUG("Enter");
++
++      if (!(IGD_IS_SUSPEND(state))) {
++              AGN_DEBUG("Unsupported PM event %d", state.event);
++              return -EINVAL;
++      }
++
++      iegd_dev = private_data.pdev;
++
++      /* Save our resources */
++      IGD_PCI_SAVE_STATE(iegd_dev, private_data.pm_save);
++
++      /* Find the PM CSR */
++      pm_cap = pci_find_capability(iegd_dev, PCI_CAP_ID_PM);
++
++      if (!pm_cap) {
++              AGN_DEBUG("No PCI PM capability record.. Exit");
++              return 0;
++      }
++
++      /* Power down the device */
++      pci_read_config_word(iegd_dev, pm_cap + PCI_PM_CTRL, &pci_pm_csr);
++      pci_pm_csr |= PCI_PM_CTRL_STATE_MASK;
++      pci_write_config_word(iegd_dev, pm_cap + PCI_PM_CTRL, pci_pm_csr);
++
++      AGN_DEBUG("Suspended.. Exit");
++      return 0;
++}
++
++int iegd_intel_resume(struct pci_dev *dev)
++{
++      int pm_cap;
++      struct pci_dev *iegd_dev;
++      unsigned short pci_pm_csr;
++
++      AGN_DEBUG("Enter");
++
++      iegd_dev = private_data.pdev;
++
++      /* Get back our resources */
++      IGD_PCI_RESTORE_STATE(iegd_dev, private_data.pm_save);
++
++      /* Find the PM CSR */
++      pm_cap = pci_find_capability(iegd_dev, PCI_CAP_ID_PM);
++
++      if (!pm_cap) {
++              AGN_DEBUG("No PCI PM capability record.. Exit");
++              return 0;
++      }
++
++      /* Power on device */
++      pci_read_config_word(iegd_dev, pm_cap + PCI_PM_CTRL, &pci_pm_csr);
++      pci_pm_csr &= ~PCI_PM_CTRL_STATE_MASK;
++      pci_write_config_word(iegd_dev, pm_cap + PCI_PM_CTRL, pci_pm_csr);
++
++      AGN_DEBUG("Resumed.. Exit");
++      return 0;
++}
++
++static struct pci_driver iegd_pci_driver = {
++      .name           = "iegd-intel",
++      .id_table       = iegd_pci_table,
++      .probe          = iegd_intel_probe,
++      .remove         = __devexit_p(iegd_intel_remove),
++      .suspend        = iegd_intel_suspend,
++      .resume         = iegd_intel_resume,
++};
++
++struct pci_dev *iegd_probe_device()
++{
++      int i;
++      struct pci_dev *dev;
++
++      AGN_DEBUG("Enter");
++
++      /* Probed for the supported devices */
++      for(i=0 ; i<sizeof(gart_pci_device_table)/sizeof(gart_dispatch_t);
++                      i++) {
++              dev = pci_get_device(PCI_VENDOR_ID_INTEL,
++                      (unsigned int)gart_pci_device_table[i].bridge_id, NULL);
++              if(dev){
++                      gart_id = &gart_pci_device_table[i];
++                      AGN_DEBUG("Device found.. Exit");
++                      return dev;
++              }
++      }
++      AGN_DEBUG("Device not found.. Exit");
++      return NULL;
++}
++
++/**
++ * This is the first routine been called by the init function.
++ * This function will probe for devices that supported by IEGD.
++ * Once it found the device, it will check whether driver for
++ * this device exist. If it exist, get the pci_driver structure
++ * for the existing driver and call the pci unregister fucntion
++ * to deregister existing driver and register iegd agpgart
++ */
++static int iegd_agp_init(void)
++{
++      struct pci_driver *curr_driver;
++      struct pci_dev *temp_pdev;
++
++      AGN_DEBUG("Enter");
++
++      /* Probe for the intel embedded graphic device chipset */
++      temp_pdev = iegd_probe_device();
++
++      if(!temp_pdev) {
++              AGN_ERROR("Probe device failed");
++              return -ENODEV;
++      }
++
++      gart_id->bridge_pdev = temp_pdev;
++      curr_driver = pci_dev_driver(gart_id->bridge_pdev);
++
++      if(curr_driver) {
++              /* FIXME: Don't know whether we have to make separate copy of this
++               * structure */
++              gart_id->old_gart  = curr_driver;
++
++              /* deregister pci driver from pci core. This is needed since we
++               * don't want 2 agpgart reside in the kernel that respond to the
++               * same device id */
++              AGN_LOG("Unregister agpgart name %s", curr_driver->name);
++              pci_unregister_driver(curr_driver);
++      }
++
++      AGN_LOG("Registering iegd gart module");
++      /* Register our own to pci core */
++      AGN_DEBUG("Exit");
++      return pci_register_driver(&iegd_pci_driver);
++
++}
++
++static void iegd_restore_device(void)
++{
++      int ret;
++
++      AGN_DEBUG("Enter");
++
++      /* Decrement the reference for this pci device */
++      pci_dev_put(gart_id->bridge_pdev);
++
++      if(gart_id->old_gart) {
++              /* Register the original driver */
++              ret = pci_register_driver(gart_id->old_gart);
++      }
++
++      AGN_DEBUG("Exit");
++
++}
++
++static int iegd_gart_init(void)
++{
++      int ret;
++
++      AGN_DEBUG("Enter");
++
++      /* Find bridge based on chipset supported by IEGD */
++      ret = iegd_agp_init();
++      if(AGP_RET(ret)) {
++              AGN_LOG("Registering iegd drm module");
++              /* Initialize DRM module by calling DRM init function */
++              return DRM_INIT_MODULE();
++      } else {
++              /* Log the driver failed to register */
++              AGN_LOG("Driver registration failed");
++      }
++
++      AGN_DEBUG("Exit");
++
++      /* Return agp error if agp init failed */
++      return ret;
++}
++
++static void iegd_gart_exit(void)
++{
++      /* Unregister DRM module */
++      AGN_DEBUG("Unregister iegd DRM module");
++      DRM_EXIT_MODULE();
++
++      /* Remove our device from the kernel */
++      AGN_DEBUG("Unregister IKM module");
++      pci_unregister_driver(&iegd_pci_driver);
++
++      /* Restore back the old agp gart */
++      AGN_DEBUG("Register original module");
++      iegd_restore_device();
++}
++
++MODULE_LICENSE("GPL and additional rights");
++
++module_init(iegd_gart_init);
++module_exit(iegd_gart_exit);
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/drm_test.c patch_script_temp/drivers/gpu/drm/iegd/drm/drm_test.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/drm_test.c    1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/drm_test.c      2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,288 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: drm_test.c
++ * $Revision: 1.3 $
++ *----------------------------------------------------------------------------
++ * Unit level test for IEGD DRM
++ * Copyright Â© 2009 Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#include <fcntl.h>
++#include <unistd.h>
++#include <sys/ioctl.h>
++#include <stdlib.h>
++#include <stdio.h>
++#include <string.h>
++
++#include "iegd.h"
++#include "iegd_drm_client.h"
++
++#define DRM_IOCTL_BASE                        'd'
++#define DRM_IO(nr)                    _IO(DRM_IOCTL_BASE,nr)
++#define DRM_IOR(nr,type)              _IOR(DRM_IOCTL_BASE,nr,type)
++#define DRM_IOW(nr,type)              _IOW(DRM_IOCTL_BASE,nr,type)
++#define DRM_IOWR(nr,type)             _IOWR(DRM_IOCTL_BASE,nr,type)
++
++#define DRM_IOCTL_INTEL_GETPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_GETPAGES, drm_intel_getpages_t)
++#define DRM_IOCTL_INTEL_FREEPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_FREEPAGES, drm_intel_freepages_t)
++#define DRM_IOCTL_INTEL_INFO_INIT             DRM_IOW( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_INIT, intel_drm_info_t)
++#define DRM_IOCTL_INTEL_INFO_GET              DRM_IOR( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_GET, intel_drm_info_t)
++
++#define PAGE_SIZE 4096
++
++#define VERBOSE "-v"
++
++int main(int argc, char *argv[])
++{
++      int file_desc, ret_value, i;
++      unsigned long *virt_ptr;
++      int failed=0;
++
++      /* Check for verbose mode */    
++      int index;      
++      int verbose = 0;
++      
++      for (index = 1; index < argc; index++)
++      {
++              if(strcmp(argv[index], VERBOSE) == 0)
++              {
++                      verbose = 1;
++                      printf("Verbose mode.\n");
++              }
++      }
++
++      if (verbose)
++      {
++              printf("Starting client\n");
++      }
++      /* Open the drm */
++      file_desc=open("/dev/dri/card0",O_RDWR);
++
++      if(file_desc<0){
++      /* In case of a different /dev tree struct.
++       * try /dev/card0
++       */
++              file_desc=open("/dev/card0",O_RDWR);
++      }
++
++      if(file_desc<0){
++              printf("Can't open device file:%s\n",DRIVER_DESC);
++              printf("Check for root level permissions.");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++      
++      if (verbose)
++      {
++              printf("Open device file:%d\n",file_desc);
++              /* This the ioctl that allocates physical memory */
++              printf("Testing ioctl for memory allocation\n");
++      }
++      
++      drm_intel_getpages_t getpages;
++      /* set the number of bytes we want the drm to allocate */
++      getpages.size=(PAGE_SIZE- 1000); 
++
++      ret_value=ioctl(file_desc,DRM_IOCTL_INTEL_GETPAGES,&getpages);
++      if (verbose)
++      {
++              printf("IOCTL call memory allocation test:");
++      }
++      if(ret_value<0){
++              printf("DRM module failed memory allocation test.\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++      if (verbose)
++      {
++              printf(" Success\n");
++              printf("size: %d,phy_address: %#x,virt_address: %#x,offset: %#x\n",
++               getpages.size, getpages.phy_address, getpages.virt_address, 
++               getpages.offset);
++
++              /* test for memory access */
++
++              printf("Testing ioctl for memory access\n");
++      }
++      
++      virt_ptr=(unsigned long *)getpages.virt_address;
++
++      /* input 0..10 into subsequent memory */
++
++      for(i=0;i<=11;i++){
++      *virt_ptr=i;
++      virt_ptr++;
++      }
++
++      /*read from subsequent memory */
++      virt_ptr=(unsigned long *)getpages.virt_address;
++      for(i=0;i<=11;i++){
++              if (verbose)
++              {
++                      printf("virt_ptr @ %#x,value: %d\n",virt_ptr,*virt_ptr);
++              }
++              if(*virt_ptr!=i){
++                      printf("Failed memory read.\n");
++              }
++      virt_ptr++;
++      }
++      if (verbose)
++      {
++              printf("IOCTL call memory access test:");
++      }
++      if(failed){
++              printf("DRM module failed memory access test.\n");
++              printf("Reinstall IKM.\n");
++              exit(-1);
++      }
++      if (verbose)
++      {
++              printf(" Success\n");
++      }
++      /* freeing memory */
++
++      drm_intel_freepages_t freepages;
++      freepages.size=getpages.size;
++      freepages.phy_address=getpages.phy_address;
++      freepages.virt_address=getpages.virt_address;
++      if (verbose)
++      {
++              printf("Freeing phy_address:%#x,size:%#x\n",
++               freepages.phy_address,freepages.size);
++
++              printf("Testing ioctl call for info init\n");
++      }
++      /* init the drm info structure in the drm and test its value */
++      intel_drm_info_t info;
++      intel_drm_info_t test_info;
++      info.device_id=0x456;
++      info.revision=333;
++      info.video_memory_offset=0x10245;
++      info.video_memory_size=987;
++      info.hw_status_offset=0x444;
++      if (verbose)
++      {
++
++              printf("Testing init info device_id: %#x,revision: %d,offset: %#x," 
++               " size: %d, hw_status_offset: %lx\n", info.device_id, info.revision, 
++               info.video_memory_offset, info.video_memory_size, 
++               info.hw_status_offset);
++      }
++       
++      ioctl(file_desc,DRM_IOCTL_INTEL_INFO_INIT,&info);
++
++      if (verbose)
++      {
++              printf("Alternative data to init\n");
++      }
++      /* init the drm info structure in the drm and test its value */
++      info.device_id=0x123;
++      info.revision=456;
++      info.video_memory_offset=0x789;
++      info.video_memory_size=111;
++      info.hw_status_offset=0x555;
++      
++      if (verbose)
++      {
++              printf("Testing init 2nd info device_id: %#x,revision: %d,offset: %#x,"
++               " size: %d, hw_status_offset: %lx\n", info.device_id, info.revision, 
++               info.video_memory_offset, info.video_memory_size, 
++               info.hw_status_offset);
++
++              printf("Get init info\n");
++      }
++      ioctl(file_desc,DRM_IOCTL_INTEL_INFO_GET,&test_info);
++      
++      if (verbose)
++      {
++              printf("IOCTL call for info init:");
++              printf("Got init info device_id: %#x,revision: %d," 
++               "offset: %#x,size:%d, hw_status_offset: %lx\n", test_info.device_id, 
++               test_info.revision, test_info.video_memory_offset, 
++               test_info.video_memory_size, test_info.hw_status_offset);
++      }
++
++      /* compare with original data to see if its still the same */
++      info.device_id=0x456;
++      info.revision=333;
++      info.video_memory_offset=0x10245;
++      info.video_memory_size=987;
++      info.hw_status_offset=0x444;
++      failed=0;
++
++      if(info.device_id!=test_info.device_id){
++              failed=1;
++      }
++      if(info.revision!=test_info.revision){
++              failed=1;
++      } 
++      if(info.video_memory_offset!=test_info.video_memory_offset){
++              failed=1;
++      }
++      if(info.video_memory_size!=test_info.video_memory_size){
++              failed=1;
++      }
++      if(info.hw_status_offset!=test_info.hw_status_offset){
++              failed=1;
++      }
++      
++      if(failed){
++              printf("DRM module failed IOCTL info did not match.\n");
++              printf("Reinstall IKM.");
++              exit(-1);
++      }
++
++      printf("DRM successfully loaded\n");
++
++      close(file_desc);
++      
++      return 0;
++
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/drmult.c patch_script_temp/drivers/gpu/drm/iegd/drm/drmult.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/drmult.c      1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/drmult.c        2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,270 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: drmult.c
++ * $Revision: 1.7 $
++ *----------------------------------------------------------------------------
++ * Unit level test for IEGD DRM
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++/*client to test the ioctl
++ * make sure you change the permission bits in intel.h to 0,0 
++ * before you start using this
++ */
++
++#include "iegd.h"
++
++#include <fcntl.h>
++#include <unistd.h>
++#include <sys/ioctl.h>
++#include <stdlib.h>
++#include <stdio.h>
++
++#if 0
++#define DRM_IOCTL_BASE                        'd'
++#define DRM_IO(nr)                    _IO(DRM_IOCTL_BASE,nr)
++#define DRM_IOR(nr,type)              _IOR(DRM_IOCTL_BASE,nr,type)
++#define DRM_IOW(nr,type)              _IOW(DRM_IOCTL_BASE,nr,type)
++#define DRM_IOWR(nr,type)             _IOWR(DRM_IOCTL_BASE,nr,type)
++#endif
++
++#include "iegd_drm_client.h"
++
++#if 0
++#define DRM_IOCTL_INTEL_GETPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_GETPAGES, drm_intel_getpages_t)
++#define DRM_IOCTL_INTEL_FREEPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_FREEPAGES, drm_intel_freepages_t)
++#define DRM_IOCTL_INTEL_INFO_INIT             DRM_IOW( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_INIT, intel_drm_info_t)
++#define DRM_IOCTL_INTEL_INFO_GET              DRM_IOR( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_GET, intel_drm_info_t)
++#endif
++
++
++#define PAGE_SIZE 4096
++int main()
++{
++int file_desc, ret_value;
++printf("Starting client\n");
++/* Open the drm */
++file_desc=open("/dev/dri/card0",O_RDWR);
++
++if(file_desc<0){
++/* Suse has a different /dev tree struct.
++ * try /dev/card0
++ */
++
++file_desc=open("/dev/card0",O_RDWR);
++
++}
++
++if(file_desc<0){
++      printf("Can't open device file:%s\n",DRIVER_DESC);
++      exit(-1);
++}
++
++printf("Open device file:%d\n",file_desc);
++
++
++/* Test interrupt IOCTL */
++interrupt_info_t irq_info;
++
++irq_info.req_status = 0;
++irq_info.req_type = READ_INT; /* CLEAR_INT, WAIT_INT */
++irq_info.in[0] = 0xffffffff;
++irq_info.in[1] = 0xffffffff;
++irq_info.in[2] = 0xffffffff;
++irq_info.in[3] = 0xffffffff;
++irq_info.in[4] = 0xa5a5a5a5;
++irq_info.in[5] = 0xdeadbeef;
++
++ret_value = ioctl(file_desc, DRM_IOCTL_INTEL_INTERRUPT, &irq_info);
++printf("ULT IOCTL call read interrupt tests: %d\n\n", irq_info.req_status);
++
++irq_info.req_status = 0;
++irq_info.req_type = WAIT_INT;
++irq_info.in[0] = 0xffffffff;
++irq_info.in[1] = 0xffffffff;
++irq_info.in[2] = 0xffffffff;
++irq_info.in[3] = 0xffffffff;
++
++ret_value = ioctl(file_desc, DRM_IOCTL_INTEL_INTERRUPT, &irq_info);
++printf("ULT IOCTL call wait interrupt tests: %d\n\n", irq_info.req_status);
++
++
++
++/* This the ioctl that allocates physical memory */
++printf("ULT: Testing ioctl for memory allocation\n");
++
++drm_intel_getpages_t getpages;
++/* set the number of bytes we want the drm to allocate */
++getpages.size=(PAGE_SIZE- 1000); 
++
++ret_value=ioctl(file_desc,DRM_IOCTL_INTEL_GETPAGES,&getpages);
++printf("ULT IOCTL call memory allocation test:");
++if(ret_value<0){
++      printf(" Failed\n");
++      exit(-1);
++}
++printf(" Success\n");
++printf("size%d,phy_address:%#x,virt_address:%#x,offset:%#x\n",getpages.size,getpages.phy_address,getpages.virt_address,getpages.offset);
++
++/* test for memory access */
++
++printf("ULT: Testing ioctl for memory access\n");
++int i;
++unsigned long *virt_ptr;
++
++virt_ptr=(unsigned long *)getpages.virt_address;
++
++/* input 0..10 into subsequent memory */
++
++for(i=0;i<=11;i++){
++*virt_ptr=i;
++virt_ptr++;
++
++}
++
++/*read from subsequent memory */
++int failed=0;
++virt_ptr=(unsigned long *)getpages.virt_address;
++for(i=0;i<=11;i++){
++      printf("virt_ptr@%#x,value:%d\n",virt_ptr,*virt_ptr);
++      if(*virt_ptr!=i){
++              printf("Test failed!\n");
++      }
++virt_ptr++;
++}
++printf("ULT IOCTL call memory access test:");
++if(failed){
++      printf(" Failed\n");
++      exit(-1);
++}
++
++      printf(" Success\n");
++/* freeing memory */
++
++drm_intel_freepages_t freepages;
++freepages.size=getpages.size;
++freepages.phy_address=getpages.phy_address;
++freepages.virt_address=getpages.virt_address;
++printf("Freeing phy_address:%#x,size:%#x\n",freepages.phy_address,freepages.size);
++
++/* init the drm info structure in the drm and test its value */
++
++printf("ULT: Testing ioctl call for info init\n");
++ intel_drm_info_t info;
++ intel_drm_info_t test_info;
++ info.device_id=0x456;
++ info.revision=333;
++ info.video_memory_offset=0x10245;
++ info.video_memory_size=987;
++ info.hw_status_offset=0x444;
++
++ printf("Testing init info device_id:%#x,revision:%d,offset:%#x,size:%d,hw_status_offset:%lx\n",
++      info.device_id,info.revision,info.video_memory_offset,info.video_memory_size,info.hw_status_offset);
++ 
++ ioctl(file_desc,DRM_IOCTL_INTEL_INFO_INIT,&info);
++
++/* init the drm info structure in the drm and test its value */
++printf("Alternative data to init\n");
++ info.device_id=0x123;
++ info.revision=456;
++ info.video_memory_offset=0x789;
++ info.video_memory_size=111;
++ info.hw_status_offset=0x555;
++
++ printf("Testing init 2nd info device_id:%#x,revision:%d,offset:%#x,size:%d,hw_status_offset:%lx\n",
++      info.device_id,info.revision,info.video_memory_offset,info.video_memory_size,info.hw_status_offset);
++ 
++ ioctl(file_desc,DRM_IOCTL_INTEL_INFO_INIT,&info);
++
++
++printf("Get init info\n");
++ ioctl(file_desc,DRM_IOCTL_INTEL_INFO_GET,&test_info);
++
++ printf("Got init info device_id:%#x,revision:%d,offset:%#x,size:%d,hw_status_offset:%lx\n",
++      test_info.device_id,test_info.revision,test_info.video_memory_offset,test_info.video_memory_size,test_info.hw_status_offset);
++/* compare with original data to see if its still the same */
++info.device_id=0x456;
++info.revision=333;
++info.video_memory_offset=0x10245;
++info.video_memory_size=987;
++info.hw_status_offset=0x444;
++failed=0;
++
++if(info.device_id!=test_info.device_id){
++      failed=1;
++}
++if(info.revision!=test_info.revision){
++      failed=1;
++} 
++if(info.video_memory_offset!=test_info.video_memory_offset){
++      failed=1;
++}
++if(info.video_memory_size!=test_info.video_memory_size){
++      failed=1;
++}
++if(info.hw_status_offset!=test_info.hw_status_offset){
++      failed=1;
++}
++
++printf("ULT IOCTL call for info init:");
++if(failed){
++      printf(" Failed\n");
++      exit(-1);
++}
++
++      printf(" Success\n");
++
++close(file_desc);
++/*
++sleep(100000000000);
++*/
++return 0;
++
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd.h patch_script_temp/drivers/gpu/drm/iegd/drm/iegd.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd.h        1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd.h  2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,117 @@
++
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd.h
++ * $Revision: 1.7 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++#include <linux/version.h>
++#ifndef __IEGD_H__
++#define __IEGD_H__
++
++/* General customization:
++ */
++#define __HAVE_AGP            1
++#define __MUST_HAVE_AGP               0
++#define __HAVE_MTRR           0
++#define __HAVE_CTX_BITMAP     1
++
++#define DRIVER_AUTHOR         " "
++
++#define DRIVER_NAME           "iegd"
++#define DRIVER_DESC           "Intel DRM"
++#define DRIVER_DATE           "20081022"
++
++#define DRIVER_MAJOR          1
++#define DRIVER_MINOR          0
++#define DRIVER_PATCHLEVEL     1
++
++#if LINUX_VERSION_CODE <= KERNEL_VERSION(2,6,5)
++#define KERNEL265 1
++#endif
++
++#if ((LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,11)) &&        \
++      (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,15)))
++#define KERNEL2611 1
++#endif
++
++#if ((LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,15)) && \
++      (LINUX_VERSION_CODE < KERNEL_VERSION(2,6,24)))
++#define KERNEL2615 1
++#endif
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,24)
++#define KERNEL2624 1
++#endif
++
++#ifndef KERNEL265
++#define KERNEL265 0
++#endif
++
++#ifndef KERNEL2611
++#define KERNEL2611 0
++#endif
++
++#ifndef KERNEL2615
++#define KERNEL2615 0
++#endif
++
++#ifndef KERNEL2624
++#define KERNEL2624 0
++#endif
++
++/* For some arcane reasons certain stuff needs to be defined in this file.
++ * This is being defined in intel_interface_265.h.If not the drm won't 
++ * compile properly.
++ */
++#include "iegd_interface_265.h"
++#include "iegd_interface_2611.h"
++#include "iegd_interface_2615.h"
++#include "iegd_interface_2624.h"
++
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_drm.h patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_drm.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_drm.h    1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_drm.h      2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,116 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_drm.h
++ * $Revision: 1.7 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#ifndef _IEGD_DRM_H__
++#define _IEGD_DRM_H__
++
++#include "iegd_drm_client.h"
++
++/* INTEL specific ioctls
++ * The device specific ioctl range is 0x40 to 0x79.
++ */
++
++#define DRM_IOCTL_INTEL_GETPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_GETPAGES, drm_intel_getpages_t)
++#define DRM_IOCTL_INTEL_FREEPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_FREEPAGES, drm_intel_freepages_t)
++#define DRM_IOCTL_INTEL_INFO_INIT             DRM_IOW( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_INIT, intel_drm_info_t)
++#define DRM_IOCTL_INTEL_INFO_GET              DRM_IOR( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_GET, intel_drm_info_t)
++#define DRM_IOCTL_INTEL_INTERRUPT             DRM_IOWR( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INTERRUPT, interrupt_info_t)
++
++/* New ioctl to set kernel params:
++ */
++typedef struct drm_intel_listpages {
++      int              pid;
++      int              size;
++      unsigned long phy_address;
++      unsigned long virt_address;
++      unsigned long offset;
++} drm_intel_listpages_t;
++
++typedef struct drm_intel_list{
++      struct list_head head;
++      drm_intel_listpages_t *page;
++}drm_intel_list_t;
++/*
++ * This is the basic information structure that is obtained from the
++ * IEGD XFree driver.
++ */
++typedef struct intel_device_private{
++      drm_intel_list_t *pagelist;
++      intel_drm_info_t *info_ptr;
++      spinlock_t irqmask_lock;
++      uint8_t *sgx_reg;
++      uint8_t *vdc_reg;
++      uint8_t *msvdx_reg;
++      uint32_t sgx_irq_mask;
++      uint32_t sgx_irq_mask2;
++      uint32_t vdc_irq_mask;
++      uint32_t msvdx_irq_mask;
++      /* interrupt status bits returned once woken up */
++      uint32_t interrupt_status;
++      int irq_enabled;
++      /* condition to wake up on */
++      unsigned int event_present;
++      wait_queue_head_t event_queue;
++      /* interrupts that have already occured */
++      unsigned int out_vdc;
++      unsigned int out_sgx;
++      unsigned int out_sgx2;
++      unsigned int out_mtx;
++} intel_device_private_t;
++
++#endif /* _INTEL_DRM_H_ */
++
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_drm_client.h patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_drm_client.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_drm_client.h     1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_drm_client.h       2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,139 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_drm_client.h
++ * $Revision: 1.7 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#ifndef __IEGD_DRM_CLIENT_H__
++#define __IEGD_DRM_CLIENT_H__
++
++/* Requests made from client to drm */
++#define CLEAR_INT     1
++#define WAIT_INT      2
++#define READ_INT      3
++#define UNMASK_INT    4
++#define MASK_INT      5
++
++/* Responses returned to the client from drm */
++#define INT_INVALID  -1
++#define INT_NOOP        0
++#define INT_CLEARED   1
++#define INT_HANDLED     2
++#define INT_READ      3
++#define INT_STORED    4
++#define INT_TIMEOUT   5
++
++typedef struct drm_intel_getpages {
++      int size;
++      unsigned long phy_address;
++      unsigned long virt_address;
++      unsigned long offset;
++} drm_intel_getpages_t;
++
++typedef struct drm_intel_freepages {
++      int size;
++      unsigned long phy_address;
++      unsigned long virt_address;
++      unsigned long offset;
++} drm_intel_freepages_t;
++
++/*
++ * This is the basic information structure that is is obtained from the
++ * IEGD drm driver.
++ */
++typedef struct _intel_drm_info {
++      unsigned long device_id;
++      unsigned long revision;
++      unsigned long video_memory_offset;
++      unsigned long video_memory_size;
++      unsigned long hw_status_offset;
++} intel_drm_info_t;
++
++typedef struct {
++      /* request status returned to client */
++      unsigned int req_status;
++      /* what type of request is being made to drm (clear/wait/read) */
++      unsigned int req_type;
++      /* which interrupts to clear or look for */
++      unsigned long in[8]; /* Array of device dependant mask/request bits */
++      /* interrupts that have already occured, returned to the client  */
++      unsigned long out[8]; /* Array of device dependant status bits */
++} interrupt_info_t;
++
++#define DRM_IOCTL_BASE                        'd'
++#define DRM_IO(nr)                    _IO(DRM_IOCTL_BASE,nr)
++#define DRM_IOR(nr,type)              _IOR(DRM_IOCTL_BASE,nr,type)
++#define DRM_IOW(nr,type)              _IOW(DRM_IOCTL_BASE,nr,type)
++#define DRM_IOWR(nr,type)             _IOWR(DRM_IOCTL_BASE,nr,type)
++
++/* IOCTL numbers to be used along side drmCommand* in Xserver 
++ * example taken from intel_dri.c:  
++ *    drmCommandWrite(iptr->drm_sub_fd
++ *            , DRM_INTEL_INFO_INIT
++ *            , &info,sizeof(intel_drm_info_t)
++ */
++
++#define DRM_BASE_COMMAND                0x40
++#define DRM_INTEL_GETPAGES              0x01
++#define DRM_INTEL_FREEPAGES             0x02
++#define DRM_INTEL_INFO_INIT             0x03
++#define DRM_INTEL_INFO_GET              0x04
++#define DRM_INTEL_INTERRUPT             0x05
++
++#define DRM_IOCTL_INTEL_GETPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_GETPAGES, drm_intel_getpages_t)
++#define DRM_IOCTL_INTEL_FREEPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_FREEPAGES, drm_intel_freepages_t)
++#define DRM_IOCTL_INTEL_INFO_INIT             DRM_IOW( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_INIT, intel_drm_info_t)
++#define DRM_IOCTL_INTEL_INFO_GET              DRM_IOR( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_GET, intel_drm_info_t)
++#define DRM_IOCTL_INTEL_INTERRUPT             DRM_IOWR( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INTERRUPT, interrupt_info_t)
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_drv.c patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_drv.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_drv.c    1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_drv.c      2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,59 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_drv.c
++ * $Revision: 1.5 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#include <linux/config.h>
++#include "iegd.h"
++#include <drmP.h>
++#include <drm.h>
++#include "iegd_drm.h"
++#include "iegd_drv.h"
++
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_drv.h patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_drv.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_drv.h    1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_drv.h      2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,216 @@
++
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_drv.h
++ * $Revision: 1.15 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#ifndef _IEGD_DRV_H_
++#define _IEGD_DRV_H_
++
++#define KB(x) ((x) * 1024)
++#define MB(x) (KB (KB (x)))
++#define GB(x) (MB (KB (x)))
++#include "iegd_drm.h"
++#include "igd_gart.h"
++
++/* Define the PCI IDs below */
++#define INTEL_PCI_IDS \
++      {0x8086, 0x8108, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x3577, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2562, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x3582, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2572, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2582, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2592, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2772, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x27a2, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x27ae, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2972, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2982, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2992, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x29a2, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2a02, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2a12, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x29c2, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x29b2, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2a42, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2e02, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2e12, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2e22, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0x8086, 0x2e32, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 0}, \
++      {0, 0, 0}
++
++/* Latest kernel remove this macro from drmP.h */
++#ifndef VM_OFFSET
++#define VM_OFFSET(vma) ((vma)->vm_pgoff << PAGE_SHIFT)
++#endif
++
++#ifndef DRMFILE
++#define DRMFILE                         struct file *
++#endif
++
++/*
++ * We check kernel version here because in kernel 2.6.23 onward some of the
++ * structure definition for the drm  have been change. They have remove all the
++ * typedef for the drm data structure to follow kernel coding guidelines. This
++ * causing backward compatibility problem with IKM. Since only the typedef and
++ * the way they handling link list are changing, to create separate file just
++ * for handling this changes are redundant since implementation wise are
++ * still the same.
++ */
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,23)
++typedef struct drm_device drm_device_t;
++typedef struct drm_file drm_file_t;
++typedef struct drm_map drm_map_t;
++typedef struct drm_map_list drm_map_list_t;
++typedef struct drm_vma_entry drm_vma_entry_t;
++typedef struct drm_ioctl_desc drm_ioctl_desc_t;
++
++#define INSERT_VMA() \
++              mutex_lock(&dev->struct_mutex); \
++              vma_entry->vma = vma; \
++              vma_entry->pid = current->pid; \
++              list_add(&vma_entry->head, &dev->vmalist); \
++              mutex_unlock(&dev->struct_mutex);
++
++#define LIST_FOR_EACH(l, d) list_for_each((l), &(d)->maplist)
++
++#else
++
++#define INSERT_VMA() \
++              mutex_lock(&dev->struct_mutex); \
++              vma_entry->vma = vma; \
++              vma_entry->next = dev->vmalist; \
++              vma_entry->pid = current->pid; \
++              dev->vmalist = vma_entry; \
++              mutex_unlock(&dev->struct_mutex);
++
++#define LIST_FOR_EACH(l, d) list_for_each((l), &(d)->maplist->head)
++
++#endif /* #if LINUX_VERSION_CODE */
++
++/* Define the prototype and interfaces for functions for the different 
++ * kernel version below.
++ */
++
++/* function definition in intel_interface.c */
++extern int intel_mmap_buffers(struct file *filp,struct vm_area_struct *vma);
++
++/* function definition to get pages  this is in intel_interface*/
++extern int intel_getpages( drm_device_t *dev,struct file *filp, unsigned long arg );
++
++extern int intel_freepages(drm_device_t *dev , unsigned long arg );
++
++extern int intel_drm_info_init( drm_device_t *dev, unsigned long arg );
++
++extern int intel_drm_info_get( drm_device_t *dev, unsigned long arg );
++
++extern int intel_postinit(intel_device_private_t **priv);
++
++extern int intel_prerelease(drm_device_t *dev);
++
++/* Functions in intel_interface_265.c used in 2.6.5 kernel and below */
++
++extern int intel_postinit_265(drm_device_t *dev);
++
++extern int intel_prerelease_265(drm_device_t *dev);
++
++extern int intel_getpages_265( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg );
++
++extern int intel_freepages_265( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg );
++
++extern int intel_drm_info_init_265( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg );
++
++extern int intel_drm_info_get_265( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg );
++
++/* Functions in intel_interface_2611.c used in 2.6.11 kernel and above */
++
++extern int intel_postinit_2611(struct drm_device *dev,unsigned long flags);
++
++extern void intel_prerelease_2611(drm_device_t *dev,DRMFILE filp);
++
++extern int intel_getpages_2611( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg );
++
++extern int intel_freepages_2611( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg );
++
++extern int intel_drm_info_init_2611( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg );
++
++extern int intel_drm_info_get_2611( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg );
++
++extern unsigned long intel_alloc_pages(int order, int area);
++
++extern void intel_free_pages(unsigned long address, int order, int area);
++
++extern int drm_plb_mmap(struct file *, struct vm_area_struct *);
++
++extern struct vm_operations_struct iegd_plb_vm_ops_drm;
++extern gart_dispatch_t *gart_id;
++extern dev_private_data_t private_data;
++
++extern irqreturn_t psb_irq_handler(DRM_IRQ_ARGS);
++extern void psb_irq_preinstall(struct drm_device *dev);
++#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,27)
++extern void psb_irq_postinstall(struct drm_device *dev);
++#else
++extern int psb_irq_postinstall(struct drm_device *dev);
++#endif
++extern void psb_irq_uninstall(struct drm_device *dev);
++extern int psb_init(intel_device_private_t *priv);
++int intel_drm_plb_interrupts( drm_device_t *dev, void *data );
++#endif
++
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface.c patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface.c      1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface.c        2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,888 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface.c
++ * $Revision: 1.23 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#include "iegd.h"
++#include "igd_abs.h"
++#include "drmP.h"
++#include "drm.h"
++
++#include "iegd_drm.h"
++#include "iegd_drv.h"
++#include "psb_intregs.h"
++
++#ifndef MSR_IA32_CR_PAT
++#define MSR_IA32_CR_PAT 0x0277
++#endif
++#ifndef _PAGE_PAT
++#define _PAGE_PAT 0x080
++#endif
++
++extern void agp_init_pat(void);
++extern int agp_use_pat (void);
++
++#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,27)
++int drm_irq_install(drm_device_t *dev);
++#endif
++
++/* get intel_buffer_fops from the interface_###.c files */
++extern struct file_operations intel_buffer_fops;
++
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++extern struct vm_operations_struct iegd_plb_vm_ops;
++#endif
++
++
++/* Global variable to keep track the amount of memory we are using */
++static int memory;
++
++/* Our own mmap function to memory map physical to user space memory
++ */
++int intel_mmap_buffers(struct file *filp, struct vm_area_struct *vma)
++{
++      DRM_DEBUG("\n");
++
++      lock_kernel();
++      vma->vm_flags |= (VM_IO | VM_RESERVED);
++      vma->vm_file = filp;
++      unlock_kernel();
++      
++      DRM_DEBUG("VM_OFFSET(vma):%#x\n",(unsigned int)VM_OFFSET(vma));
++      if (REMAP_PAGE( vma,
++                      vma->vm_start,
++                      VM_OFFSET(vma),
++                      (vma->vm_end - vma->vm_start),
++                      pgprot_noncached(vma->vm_page_prot))){
++       return -EAGAIN;
++      }
++
++      return 0;
++}
++
++/* IOCTL to Allocate size pages and mmap it to the client calling it with
++ * corresponding virtual address
++ */
++int intel_getpages( drm_device_t *dev, struct file *filp, unsigned long arg ){
++
++      drm_intel_getpages_t getpages;
++      /* allocate some bytes */
++      unsigned long bytes;
++      int order;
++      int size;
++
++      unsigned long address;
++      unsigned long phy_address;
++      unsigned long offset;
++
++      struct page *pg;
++
++      unsigned long virtual;
++      struct file_operations *old_fops;
++
++      intel_device_private_t *dev_ptr=dev->dev_private;
++      drm_intel_listpages_t *page;
++      drm_intel_list_t     *list;
++
++      DRM_DEBUG("\n");
++      /* copy user arguments */
++      if(copy_from_user(&getpages, (void __user *) arg, sizeof(getpages))){
++              return -EFAULT;
++      }
++
++      bytes=getpages.size;
++      /* Check to see if this allocation would exceed 16MEG in total memory
++       * This is to prevent denial of service attack. 16Meg should be enough.
++       */
++      if((memory+bytes)>MB(16) ){
++              /* We exceeded 16MEG. Bail out */
++              DRM_ERROR("Total memory allocated exceeded 16Meg!\n");
++              return -EFAULT;
++      }
++
++      /*number of pages that are needed*/
++      size=bytes>>PAGE_SHIFT;
++      if(bytes & ~(PAGE_SIZE*size)){
++              ++size;
++      }
++      order=ORDER(size);
++      DRM_DEBUG("Allocating bytes:%#lx,size:%d,order:%d\n",
++              (unsigned long)bytes,size,order); 
++      /* allocate the pages */
++      /* returns kernel logical address. 
++       * Is this the same as the kernel virtual address?? 
++       */
++      address=ALLOC_PAGES(order,0);
++      if(!address){
++              DRM_ERROR("Can't get pages\n");
++              return -EFAULT;
++      }
++      phy_address=__pa(address);
++
++      /* Find virtual address of the phys address */
++      pg=virt_to_page((void *)address);
++      offset=pg->index;
++      /* Find the number of bytes that is actually allocated */
++      size=PAGE_SIZE<<order;
++      DRM_DEBUG("Allocated address:%#lx,page offset:%#lx,phy_address:%#lx\n",
++              address,offset,phy_address); 
++
++      /*do_mmap on the logical address and return virtual address */
++      down_write(&current->mm->mmap_sem);
++
++      old_fops= (struct file_operations *)filp->f_op;
++      filp->f_op=&intel_buffer_fops;
++
++      virtual=do_mmap(filp,0,size,PROT_READ|PROT_WRITE,MAP_SHARED,phy_address);
++
++      filp->f_op=old_fops;
++      up_write(&current->mm->mmap_sem);
++      DRM_DEBUG("Mmaped virtual:%#lx,address:%#lx\n",virtual,
++              (unsigned long)__va(phy_address));
++      if(virtual > -1024UL){
++              DRM_ERROR("mmap failed:%d\n",(int)virtual);
++              return -EFAULT;
++      }
++      getpages.phy_address=phy_address;
++      getpages.virt_address=virtual;
++      getpages.size=size;
++      getpages.offset=offset;
++
++      DRM_DEBUG("Mmap success requested size:%d (%d)\n",
++              getpages.size,(int)bytes);
++
++      /* alloc the page to be put into the linked list */
++      page=ALLOC(sizeof(*page),DRM_MEM_DRIVER);
++      if(!page){
++              DRM_DEBUG("Can't alloc list for page\n");
++              return -ENOMEM;
++      }
++
++      /*page->pid=current->pid;*/
++      page->pid=current->group_leader->pid;
++      page->size=size;
++      page->phy_address=phy_address;
++      page->virt_address=virtual;
++      page->offset=offset;
++
++      DRM_DEBUG("parent pid:%d,pid:%d,group_leader->pid:%d\n"
++              ,current->parent->pid,current->pid,current->group_leader->pid);
++      /* Alloc the list to be added then add it to the linked list */
++      list=ALLOC(sizeof(*list),DRM_MEM_DRIVER);
++      if(!list){
++              DRM_DEBUG("Can't alloc list for page\n");
++              FREE(page,sizeof(*page),0);
++              return -ENOMEM;
++      }
++      memset(list,0,sizeof(*list));
++      list->page=page;
++      LOCK_DRM(dev);
++      list_add(&list->head,&dev_ptr->pagelist->head);
++      UNLOCK_DRM(dev);
++      if(copy_to_user((void __user *) arg,&getpages,sizeof(getpages))){
++              return -EFAULT;
++      }
++      /* update the total amount of memory we use */
++      memory+=size;
++      DRM_DEBUG("memory has:%d bytes\n",memory);
++
++return 0;
++}
++
++/* IOCTL to free pages that are allocated by getpages 
++ */
++int intel_freepages( drm_device_t *dev, unsigned long arg ){
++
++      drm_intel_freepages_t freepages;
++      /* allocate some bytes */
++      unsigned long bytes;
++      int order;
++      int size;
++
++      intel_device_private_t *dev_ptr=dev->dev_private;
++      drm_intel_listpages_t *page;
++      drm_intel_list_t *r_list=NULL;
++      struct list_head *pagelist;
++
++      DRM_DEBUG("Freeing pages\n");
++      /* copy user arguments */
++      if(copy_from_user(&freepages, (void __user *) arg, sizeof(freepages))){
++              return -EFAULT;
++      }
++
++      bytes=freepages.size;
++      /*number of pages that are needed*/
++      size=bytes>>PAGE_SHIFT;
++      if(bytes & ~(PAGE_SIZE*size)){
++              ++size;
++      }
++      order=ORDER(size);
++      DRM_DEBUG("bytes:%d,size:%d,order:%d,phy_address:%#lx\n",(int)bytes,(int)size,(int)order,freepages.phy_address);
++
++      /* free the pages */
++      DRM_DEBUG("freeing address:%#lx,size:%#lx\n",(unsigned long)__va(freepages.phy_address),(unsigned long)bytes);
++
++      DRM_DEBUG("parent pid:%d,pid:%d,group_leader->pid:%d\n"
++              ,current->parent->pid,current->pid,current->group_leader->pid);
++      /* See if the requested address is in our page list */
++      LOCK_DRM(dev);
++      pagelist=&dev_ptr->pagelist->head;
++      list_for_each(pagelist,&dev_ptr->pagelist->head){
++              r_list=list_entry(pagelist,drm_intel_list_t,head);
++              if((r_list->page->pid==current->group_leader->pid) 
++                      && (r_list->page->phy_address==freepages.phy_address)){
++              
++              DRM_DEBUG("found pid:%d\n",current->group_leader->pid);
++              DRM_DEBUG("size:%d\n",r_list->page->size);
++              DRM_DEBUG("phy_address:%#lx\n",r_list->page->phy_address);
++              DRM_DEBUG("virt_add:%#lx\n",r_list->page->virt_address);
++              DRM_DEBUG("offset:%#lx\n",r_list->page->offset);
++              
++              break;
++              }
++
++      }
++      if(pagelist==(&dev_ptr->pagelist->head)){
++              DRM_DEBUG("Can't find pages alloc for pid:%d\n",current->pid);
++              UNLOCK_DRM(dev);
++              return -EINVAL;
++      }
++
++      /* munmap the region 1st */
++      down_write(&current->mm->mmap_sem);
++      DRM_DEBUG("Unmapping virt_address:%#lx\n",freepages.virt_address);
++      do_munmap(current->mm,freepages.virt_address,bytes);
++      up_write(&current->mm->mmap_sem);
++
++      /* Free the pages! */
++      FREE_PAGES((unsigned long)__va(freepages.phy_address),order,0);
++
++      /* Free the page list */
++      page=r_list->page;
++      list_del(pagelist);
++      size=r_list->page->size;
++      FREE(pagelist,sizeof(*pagelist),0);
++      FREE(page,sizeof(*page),0);
++      UNLOCK_DRM(dev);
++
++      /* update the total memory that we use */
++      memory-=size;
++      DRM_DEBUG("memory has:%d bytes\n",memory);
++      return 0;
++}
++
++#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,27)
++/* This code is copied verbatim from the DRM module code in 
++ * IKM/val/drm/drmv11p0/drm_irq.c.  It's here because we
++ * need to activate interrupt handling, but for some reason the DRM module
++ * only exports the routine to disable interrupt handling drm_irq_uninstall(),
++ * and not the one to install.
++ * 
++ * This could be problematic when new DRM versions appear.
++ * 
++ * Fortunately, should a new DRM version appear, it should export
++ * drm_irq_install(), and then this source won't be needed at all; the
++ * code should compile cleanly with an external reference if this
++ * static version is removed completely.
++ */
++int drm_irq_install(drm_device_t * dev)
++{
++      int ret;
++      unsigned long sh_flags = 0;
++      int dev_irq = 0;
++
++      if (!drm_core_check_feature(dev, DRIVER_HAVE_IRQ))
++              return -EINVAL;
++
++      dev_irq = DRM_DEV_TO_IRQ(dev);
++      if (dev_irq == 0)
++              return -EINVAL;
++
++      mutex_lock(&dev->struct_mutex);
++
++      /* Driver must have been initialized */
++      if (!dev->dev_private) {
++              mutex_unlock(&dev->struct_mutex);
++              return -EINVAL;
++      }
++
++      if (dev->irq_enabled) {
++              mutex_unlock(&dev->struct_mutex);
++              return -EBUSY;
++      }
++      dev->irq_enabled = 1;
++      mutex_unlock(&dev->struct_mutex);
++
++      DRM_DEBUG("%s: irq=%d\n", __FUNCTION__, dev_irq);
++
++      /*
++      if (drm_core_check_feature(dev, DRIVER_IRQ_VBL)) {
++              init_waitqueue_head(&dev->vbl_queue);
++
++              spin_lock_init(&dev->vbl_lock);
++
++              INIT_LIST_HEAD(&dev->vbl_sigs.head);
++              INIT_LIST_HEAD(&dev->vbl_sigs2.head);
++
++              dev->vbl_pending = 0;
++      }
++      */
++
++      /* Before installing handler */
++      dev->driver->irq_preinstall(dev);
++
++      /* Install handler */
++      if (drm_core_check_feature(dev, DRIVER_IRQ_SHARED))
++              sh_flags = IRQF_SHARED;
++
++      ret = request_irq(dev_irq, dev->driver->irq_handler,
++                        sh_flags, dev->devname, dev);
++      if (ret < 0) {
++              mutex_lock(&dev->struct_mutex);
++              dev->irq_enabled = 0;
++              mutex_unlock(&dev->struct_mutex);
++              return ret;
++      }
++
++      /* After installing handler */
++      dev->driver->irq_postinstall(dev);
++
++      return 0;
++}
++#endif
++
++/* IOCTL to init the info that is needed by the client 
++ */
++int intel_drm_info_init( drm_device_t *dev, unsigned long arg ){
++
++      intel_drm_info_t info;
++      intel_drm_info_t *info_ptr;
++      intel_device_private_t *dev_ptr;
++
++      DRM_DEBUG("info init succesful dev_private:%#lx\n",(unsigned long)dev->dev_private);
++      dev_ptr=dev->dev_private;
++      /* See if dev_private is already allocated */
++      if(!dev->dev_private){
++              DRM_ERROR("dev_private not allocated!\n");
++              return 0;
++      }
++      info_ptr=dev_ptr->info_ptr;
++      /* See if info is already allocated */
++      if(info_ptr->device_id){
++              DRM_ERROR("Info already allocated!\n");
++              return 0;
++      }
++
++      /* copy user arguments */
++      if(copy_from_user(&info, (void __user *) arg, sizeof(info))){
++              return -EFAULT;
++      }
++
++      info_ptr->device_id=info.device_id;
++      info_ptr->revision=info.revision;
++      info_ptr->video_memory_offset=info.video_memory_offset;
++      info_ptr->video_memory_size=info.video_memory_size;
++      info_ptr->hw_status_offset=info.hw_status_offset;
++      DRM_DEBUG("device_id:%#lx,revision:%#lx,offset:%#lx,size:%#lx,hw_status_offset:%lx\n",
++              info_ptr->device_id,info_ptr->revision,
++              info_ptr->video_memory_offset,info_ptr->video_memory_size,
++              info_ptr->hw_status_offset);
++return 0;
++}
++/* IOCTL to get the info that is needed by the client 
++ */
++int intel_drm_info_get( drm_device_t *dev, unsigned long arg ){
++
++      intel_drm_info_t info;
++      intel_device_private_t *dev_ptr=dev->dev_private;
++      intel_drm_info_t *info_ptr=dev_ptr->info_ptr;
++
++      DRM_DEBUG("Info get device_id:%#lx,revision:%#lx,offset:%#lx,size:%#lx, hw_status_offset:%lx\n",
++              info_ptr->device_id,info_ptr->revision,
++              info_ptr->video_memory_offset,info_ptr->video_memory_size,
++              info_ptr->hw_status_offset);
++
++      info.device_id=info_ptr->device_id;
++      info.revision=info_ptr->revision;
++      info.video_memory_offset=info_ptr->video_memory_offset;
++      info.video_memory_size=info_ptr->video_memory_size;
++      info.hw_status_offset=info_ptr->hw_status_offset;
++
++      if(copy_to_user((void __user *) arg,&info,sizeof(info))){
++              return -EFAULT;
++      }
++
++return 0;
++}
++
++/* initialise structure for link list and driver info in dev_private */
++int intel_postinit(intel_device_private_t **priv){
++
++      intel_drm_info_t *info_ptr;
++      intel_device_private_t *dev_ptr;
++      DRM_DEBUG("\n");
++      /* allocate info to be stored */
++      dev_ptr=ALLOC(sizeof(intel_device_private_t),DRM_MEM_DRIVER);
++
++      if(!dev_ptr){
++              return -ENOMEM;
++      }
++
++      DRM_DEBUG("dev_ptr allocation succesful\n");
++
++      memset(dev_ptr,0,sizeof(intel_device_private_t));       
++      *priv=dev_ptr;
++
++      info_ptr=ALLOC(sizeof(intel_drm_info_t),DRM_MEM_DRIVER);
++
++      if(!info_ptr){
++              return -ENOMEM;
++      }
++
++      DRM_DEBUG("Info_ptr allocation succesful\n");
++      memset(info_ptr,0,sizeof(intel_drm_info_t));
++      dev_ptr->info_ptr=info_ptr;
++
++      dev_ptr->pagelist=ALLOC(sizeof(*dev_ptr->pagelist),DRM_MEM_DRIVER);
++
++      if(!dev_ptr->pagelist){
++              return -ENOMEM;
++      }
++
++      DRM_DEBUG("pagelist allocation succesful\n");
++      memset(dev_ptr->pagelist,0,sizeof(*dev_ptr->pagelist));
++      INIT_LIST_HEAD(&dev_ptr->pagelist->head);
++      /* Initialise global variable to zero when we start up */
++      memory=0;
++      DRM_DEBUG("Initialised memory:%d\n",memory);
++
++return 0;
++
++}
++/* check and free pages of client that is closing the fd */
++int intel_prerelease(drm_device_t *dev){
++      unsigned long bytes;
++      int order;
++      int size;
++
++      intel_device_private_t *dev_ptr=dev->dev_private;
++      drm_intel_listpages_t *page;
++      drm_intel_list_t *r_list=NULL;
++      struct list_head *pagelist, *pagelist_next;
++
++      DRM_DEBUG("Client closing freeing pages alloc to it\n");
++
++
++      /* Search for the page list has been added and free it */
++
++      LOCK_DRM(dev);
++
++      /* The changes to this function are copied form 8.1 */
++      /* I've no idea why, but sometimes during bootup the dev_private
++      * field can show up as NULL.  Guarding against this for now...
++      */      
++      if (dev_ptr != NULL) {
++
++      pagelist=&dev_ptr->pagelist->head;
++      list_for_each_safe(pagelist,pagelist_next,&dev_ptr->pagelist->head){
++              r_list=list_entry(pagelist,drm_intel_list_t,head);
++              if(r_list->page->pid==current->group_leader->pid){
++#if 0                 
++                      printk("found pid:%d\n",current->pid);
++                      printk("size:%d\n",r_list->page->size);
++                      printk("phy_address:%#lx\n",r_list->page->phy_address);
++                      printk("virt_add:%#lx\n",r_list->page->virt_address);
++                      printk("offset:%#lx\n",r_list->page->offset);
++#endif                
++                      bytes=r_list->page->size;
++
++                      /*number of pages that are needed*/
++
++                      size=bytes>>PAGE_SHIFT;
++                      if(bytes & ~(PAGE_SIZE*size)){
++                              ++size;
++                      }
++                      order=ORDER(size);
++                      /* free the pages */
++
++#if 0                 
++                      printk("freeing address:%#lx,size:%#lx\n"
++                              ,(unsigned long)__va(r_list->page->phy_address)
++                              ,(unsigned long)bytes);
++#endif                
++
++                      FREE_PAGES((unsigned long)__va(r_list->page->phy_address)
++                              ,order,0);
++
++                      /* remove from list and free the resource */
++
++                      page=r_list->page;
++                      list_del(pagelist);
++                      FREE(pagelist,sizeof(*pagelist),0);
++                      FREE(page,sizeof(*page),0);
++                      /* update the total memory that we use */
++                      memory-=bytes;
++                      DRM_DEBUG("memory:%d bytes\n",memory);
++              }
++              }        
++      }
++
++      UNLOCK_DRM(dev);
++
++      return 0;
++
++}
++
++int drm_plb_mmap(struct file *filp, struct vm_area_struct *vma)
++{
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++      drm_file_t *priv = filp->private_data;
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,26))
++        drm_device_t *dev = priv->minor->dev;
++#else
++      drm_device_t *dev = priv->head->dev;
++#endif
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,30)
++      drm_local_map_t *map = NULL;
++#else
++      drm_map_t *map = NULL;
++#endif
++      drm_map_list_t *r_list;
++      unsigned long offset = 0;
++      struct list_head *list;
++      drm_vma_entry_t *vma_entry;
++
++      DRM_DEBUG("drm_plb_mmap:  start = 0x%lx, end = 0x%lx, offset = 0x%lx\n",
++              vma->vm_start, vma->vm_end, VM_OFFSET(vma));
++
++      if (!priv->authenticated) {
++              DRM_DEBUG("Did not authenticate");
++              return -EACCES;
++      } else {
++              DRM_DEBUG("Authenticate successful");
++      }
++
++      /* A sequential search of a linked list is
++       * fine here because: 1) there will only be
++       * about 5-10 entries in the list and, 2) a
++       * DRI client only has to do this mapping
++       * once, so it doesn't have to be optimized
++       * for performance, even if the list was a
++       * bit longer. */
++
++      /* FIXME: Temporary fix. */
++      LIST_FOR_EACH(list, dev) {
++
++              r_list = list_entry(list, drm_map_list_t, head);
++              map = r_list->map;
++              if (!map)
++                      continue;
++              if (r_list->user_token == VM_OFFSET(vma))
++                      break;
++      }
++
++      if (!map || ((map->flags & _DRM_RESTRICTED) && !capable(CAP_SYS_ADMIN)))
++              return -EPERM;
++
++      /* Check for valid size. */
++      if (map->size != vma->vm_end - vma->vm_start) {
++              return -EINVAL;
++      }
++
++      if (!capable(CAP_SYS_ADMIN) && (map->flags & _DRM_READ_ONLY)) {
++              vma->vm_flags &= ~(VM_WRITE | VM_MAYWRITE);
++              pgprot_val(vma->vm_page_prot) &= ~_PAGE_RW;
++      }
++
++      switch (map->type) {
++
++      case _DRM_AGP:
++      case _DRM_FRAME_BUFFER:
++              if (agp_use_pat()) {
++                      pgprot_val(vma->vm_page_prot) &= ~(_PAGE_PWT | _PAGE_PCD);
++                      pgprot_val(vma->vm_page_prot) |= _PAGE_PAT;
++                      vma->vm_flags |= VM_IO; /* not in core dump */
++
++                      offset = VM_OFFSET(vma) - agp_bridge->gart_bus_addr;
++                      vma->vm_ops = &iegd_plb_vm_ops;
++                      break;
++              }
++
++              /* Fallthrough */
++      case _DRM_REGISTERS:
++              if (boot_cpu_data.x86 > 3 && map->type != _DRM_AGP) {
++                      pgprot_val(vma->vm_page_prot) |= _PAGE_PCD;
++                      pgprot_val(vma->vm_page_prot) &= ~_PAGE_PWT;
++              }
++              vma->vm_flags |= VM_IO; /* not in core dump */
++              offset = VM_OFFSET(vma) - agp_bridge->gart_bus_addr;
++
++              vma->vm_ops = &iegd_plb_vm_ops;
++              break;
++      case _DRM_SHM:
++      case _DRM_CONSISTENT:
++      case _DRM_SCATTER_GATHER:
++              DRM_DEBUG("Fall through to original mmap\n");
++              return drm_mmap(filp, vma);
++              break;
++      default:
++              return -EINVAL; /* This should never happen. */
++      }
++
++
++      vma->vm_flags |= VM_RESERVED;   /* Don't swap */
++
++      vma->vm_file = filp;    /* Needed for drm_vm_open() */
++
++        vma_entry = ALLOC(sizeof(*vma_entry), DRM_MEM_VMAS);
++      if (vma_entry) {
++              /*
++               * FIXME: Temporary fix. Will figure out later
++               */
++              INSERT_VMA();
++      }
++
++#endif
++      return 0;
++}
++
++int psb_init(intel_device_private_t *priv)
++{
++      DRM_INIT_WAITQUEUE(&priv->event_queue);
++      spin_lock_init(&priv->irqmask_lock);
++      priv->event_present = 0;
++      priv->out_vdc = 0;
++      priv->out_sgx = 0;
++      priv->out_sgx2 = 0;
++      priv->out_mtx = 0;
++
++      return 0;
++}
++
++int intel_drm_plb_interrupts( drm_device_t *dev, void *data )
++{
++      intel_device_private_t *priv;
++      interrupt_info_t plb_info;
++      unsigned long irqflags;
++      int ret = 0;
++      int rv;
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      if(copy_from_user(&plb_info, (void __user *) data, sizeof(plb_info))) {
++              return -EFAULT;
++      }
++
++      /* USW15 definition of in and out
++       *
++       * in/out[0] VDC
++       * in/out[1] sgx
++       * in/out[2] sgx2
++       * in/out[3] msvdx
++       */
++
++      plb_info.out[0]=0;
++      plb_info.out[1]=0;
++      plb_info.out[2]=0;
++      plb_info.out[3]=0;
++
++      switch (plb_info.req_type) {
++      case CLEAR_INT:
++
++              plb_info.in[0] &= priv->vdc_irq_mask;
++              plb_info.in[1] &= priv->sgx_irq_mask;
++              plb_info.in[2] &= priv->sgx_irq_mask2;
++              plb_info.in[3] &= priv->msvdx_irq_mask;
++
++              if (plb_info.in[0] || plb_info.in[1] ||
++                      plb_info.in[2] || plb_info.in[3]) {
++
++                      spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++                      priv->out_vdc &= ~plb_info.in[0];
++                      plb_info.out[0] = priv->out_vdc;
++
++                      priv->out_sgx &= ~plb_info.in[1];
++                      plb_info.out[1] = priv->out_sgx;
++
++                      priv->out_sgx2 &= ~plb_info.in[2];
++                      plb_info.out[2] = priv->out_sgx2;
++
++                      priv->out_mtx &= ~plb_info.in[3];
++                      plb_info.out[3] = priv->out_mtx;
++                      spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++                      plb_info.req_status = INT_CLEARED;
++
++              } else {
++                      plb_info.req_status = INT_NOOP;
++              }
++
++              break;
++
++      case READ_INT:
++
++
++              plb_info.out[0] = priv->out_vdc;
++              plb_info.out[1] = priv->out_sgx;
++              plb_info.out[2] = priv->out_sgx2;
++              plb_info.out[3] = priv->out_mtx;
++              plb_info.req_status = INT_READ;
++
++              break;
++
++      case WAIT_INT:
++
++              plb_info.in[0] &= priv->vdc_irq_mask;
++              plb_info.in[1] &= priv->sgx_irq_mask;
++              plb_info.in[2] &= priv->sgx_irq_mask2;
++              plb_info.in[3] &= priv->msvdx_irq_mask;
++
++              if (plb_info.in[0] || plb_info.in[1] ||
++                      plb_info.in[2] || plb_info.in[3]) {
++
++                      spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++
++                      /* none of the interrupts have ocurred */
++                      if ((priv->out_vdc & plb_info.in[0]) ||
++                              (priv->out_sgx & plb_info.in[1]) ||
++                              (priv->out_sgx2 & plb_info.in[2]) ||
++                              (priv->out_mtx & plb_info.in[3])) {
++
++                              /* At least one of the interrupts has already occurred */
++                              plb_info.req_status = INT_STORED;
++
++                      } else {
++
++                              /* Wait for an interrupt to occur */
++                              priv->event_present = 0;
++                              spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++                              DRM_WAIT_ON(ret, priv->event_queue, 20 * DRM_HZ,
++                                      priv->event_present);
++
++                              if (ret) {
++                                      plb_info.req_status = INT_TIMEOUT;
++                                      break;
++                              }
++
++                              spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++
++                              plb_info.req_status = INT_HANDLED;
++
++                      }
++
++                      plb_info.out[0] = priv->out_vdc;
++                      plb_info.out[1] = priv->out_sgx;
++                      plb_info.out[2] = priv->out_sgx2;
++                      plb_info.out[3] = priv->out_mtx;
++
++                      /* Clear the outstanding interrupts that have just been
++                       * retrieved
++                       */
++                      priv->out_vdc &= ~(plb_info.out[0] & plb_info.in[0]);
++                      priv->out_sgx &= ~(plb_info.out[1] & plb_info.in[1]) ;
++                      priv->out_sgx2 &= ~(plb_info.out[2] & plb_info.in[2]);
++                      priv->out_mtx &= ~(plb_info.out[3] & plb_info.in[3]);
++                      spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++              } else {
++
++                      /* Unsupported interrupt */
++                      plb_info.req_status = INT_NOOP;
++
++              }
++
++              break;
++
++      case UNMASK_INT:
++      
++              if (!dev->irq_enabled) {
++                      rv = drm_irq_install(dev);
++                      if (rv != 0) {
++                              DRM_ERROR("%s: could not install IRQs: rv = %d\n", __FUNCTION__, rv);
++                              return rv;
++                      }
++              }
++
++              spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++              PSB_WVDC32(0x00000000, IMR);
++              spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++              break;
++
++      case MASK_INT:
++
++              if (dev->irq_enabled) {
++                      rv = drm_irq_uninstall(dev);
++                      if (rv != 0) {
++                              DRM_ERROR("%s: could not uninstall IRQs: rv = %d\n", __FUNCTION__, rv);
++                              return rv;
++                      }
++              }       
++
++              spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++              PSB_WVDC32(0xFFFFFFFF, IMR);
++              spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++              break;
++
++      default:
++
++              plb_info.req_status = INT_INVALID;
++
++      }
++
++
++      if (copy_to_user((void __user *) data, &plb_info, sizeof(plb_info))) {
++              return -EFAULT;
++      }
++
++      return 0;
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2611.c patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2611.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2611.c 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2611.c   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,250 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface_2611.c
++ * $Revision: 1.6 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#include "iegd.h"
++#include "drmP.h"
++#include "drm.h"
++
++#include "iegd_drm.h"
++#include "iegd_drv.h"
++
++#if KERNEL2611
++int intel_postinit_2611(struct drm_device *dev,unsigned long flags){
++
++      intel_device_private_t *priv;
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      intel_postinit(&priv);
++      dev->dev_private=priv;
++
++      return 0;
++
++}
++
++void intel_prerelease_2611(drm_device_t *dev,DRMFILE filp){
++
++      intel_prerelease(dev);
++
++}
++
++int intel_getpages_2611( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg ){
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++      return  intel_getpages(dev,filp,arg);
++
++}
++
++int intel_freepages_2611( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg ){
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++      return  intel_freepages(dev,arg);
++}
++
++int intel_drm_info_init_2611( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg ){
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++      return  intel_drm_info_init(dev,arg);
++
++}
++
++int intel_drm_info_get_2611( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg ){
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++      return  intel_drm_info_get(dev,arg);
++
++}
++
++/* Following 2 functions were taken from drm_memory.c 
++ * For some reason they are not being exported to use
++ * by the other drm.
++ */
++
++/**
++ * Allocate pages.
++ *
++ * \param order size order.
++ * \param area memory area. (Not used.)
++ * \return page address on success, or zero on failure.
++ *
++ * Allocate and reserve free pages.
++ */
++unsigned long intel_alloc_pages(int order, int area)
++{
++      unsigned long address;
++      unsigned long bytes       = PAGE_SIZE << order;
++      unsigned long addr;
++      unsigned int  sz;
++
++      address = __get_free_pages(GFP_KERNEL, order);
++      if (!address) 
++              return 0;
++
++                              /* Zero */
++      memset((void *)address, 0, bytes);
++
++                              /* Reserve */
++      for (addr = address, sz = bytes;
++           sz > 0;
++           addr += PAGE_SIZE, sz -= PAGE_SIZE) {
++              SetPageReserved(virt_to_page(addr));
++      }
++
++      return address;
++}
++
++/**
++ * Free pages.
++ * 
++ * \param address address of the pages to free.
++ * \param order size order.
++ * \param area memory area. (Not used.)
++ *
++ * Unreserve and free pages allocated by alloc_pages().
++ */
++void intel_free_pages(unsigned long address, int order, int area)
++{
++      unsigned long bytes = PAGE_SIZE << order;
++      unsigned long addr;
++      unsigned int  sz;
++
++      if (!address) 
++              return;
++
++      /* Unreserve */
++      for (addr = address, sz = bytes;
++           sz > 0;
++           addr += PAGE_SIZE, sz -= PAGE_SIZE) {
++              ClearPageReserved(virt_to_page(addr));
++      }
++
++      free_pages(address, order);
++}
++
++drm_ioctl_desc_t intel_ioctls[]={                                      
++      [DRM_IOCTL_NR(DRM_INTEL_GETPAGES)] = { intel_getpages_2611,  0,0 }, 
++      [DRM_IOCTL_NR(DRM_INTEL_FREEPAGES)] = { intel_freepages_2611, 0,0 },
++      [DRM_IOCTL_NR(DRM_INTEL_INFO_INIT)] = { intel_drm_info_init_2611, 0,0 },
++      [DRM_IOCTL_NR(DRM_INTEL_INFO_GET)] = { intel_drm_info_get_2611,  0,0 }   
++};
++
++int intel_max_ioctl = DRM_ARRAY_SIZE(intel_ioctls);
++
++
++static int version( drm_version_t *version )
++{
++      int len;
++
++      version->version_major = DRIVER_MAJOR;
++      version->version_minor = DRIVER_MINOR;
++      version->version_patchlevel = DRIVER_PATCHLEVEL;
++      DRM_COPY( version->name, DRIVER_NAME );
++      DRM_COPY( version->date, DRIVER_DATE );
++      DRM_COPY( version->desc, DRIVER_DESC );
++      return 0;
++}
++
++static struct pci_device_id pciidlist[] = {
++      INTEL_PCI_IDS
++};
++
++static struct drm_driver driver = {
++      .driver_features = DRIVER_USE_AGP|DRIVER_REQUIRE_AGP|DRIVER_USE_MTRR,
++      .prerelease = intel_prerelease_2611,
++      .postinit =intel_postinit_2611,
++      .reclaim_buffers=drm_core_reclaim_buffers,
++      .get_map_ofs=drm_core_get_map_ofs,
++      .get_reg_ofs=drm_core_get_reg_ofs,
++      .version = version,
++      .ioctls = intel_ioctls,
++      .fops = {
++              .owner = THIS_MODULE,
++              .open = drm_open,
++              .release = drm_release,
++              .ioctl = drm_ioctl,
++              .mmap = drm_mmap,
++              .poll = drm_poll,
++              .fasync = drm_fasync,
++      },
++      .pci_driver = {
++              .name          = DRIVER_NAME,
++              .id_table      = pciidlist,
++      }
++};
++
++int __init intel_init(void)
++{
++      driver.num_ioctls = intel_max_ioctl;
++      return drm_init(&driver);
++}
++
++void __exit intel_exit(void)
++{
++      drm_exit(&driver);
++}
++
++struct file_operations intel_buffer_fops = {
++      .open    = drm_open,
++      .flush   = drm_flush,
++      .release = drm_release,
++      .ioctl   = drm_ioctl,
++      .mmap    = intel_mmap_buffers,
++      .fasync  = drm_fasync,
++};
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2611.h patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2611.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2611.h 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2611.h   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,71 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface_2611.h
++ * $Revision: 1.6 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++/* Macros are defined here such that only kernel specific functions can be
++ * used.
++ */
++#if KERNEL2611
++#define REMAP_PAGE(a,b,c,d,e) io_remap_pfn_range(a,b, \
++              c >>PAGE_SHIFT,                                                                 \
++              d,e)
++
++#define ORDER(a) drm_order(a) 
++#define ALLOC_PAGES(a,b) intel_alloc_pages(a,b) 
++#define ALLOC(a,b) drm_alloc(a,b) 
++#define FREE(a,b,c) drm_free(a,b,c) 
++#define FREE_PAGES(a,b,c) intel_free_pages(a,b,c) 
++
++#define LOCK_DRM(d) down(&d->struct_sem)
++#define UNLOCK_DRM(d) up(&d->struct_sem)
++#endif
++
++/* endif for KERNEL2611 */
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2615.c patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2615.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2615.c 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2615.c   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,394 @@
++
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface_2615.c
++ * $Revision: 1.11 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#include "iegd.h"
++#include "drmP.h"
++#include "drm.h"
++
++#include "iegd_drm.h"
++
++#include "iegd_drv.h"
++#include "psb_intregs.h"
++#include "intelpci.h"
++#include <linux/i2c.h>
++
++int drm_irq_install(drm_device_t *dev);
++
++#if KERNEL2615
++int intel_firstopen_2615(struct drm_device *dev)
++{
++
++      intel_device_private_t *priv;
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      intel_postinit(&priv);
++      dev->dev_private=priv;
++
++      return 0;
++
++}
++
++
++int intel_psb_firstopen_2615(struct drm_device *dev)
++{
++
++      unsigned long resource_start;
++      intel_device_private_t *priv;
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      intel_postinit(&priv);
++      psb_init(priv);
++      dev->dev_private=priv;
++
++
++      /*
++       * Map MMIO addresses so that the DRM can control interrupt support
++       */
++
++      resource_start = pci_resource_start(dev->pdev, PSB_MMIO_RESOURCE);
++
++      priv->vdc_reg = ioremap(resource_start + PSB_VDC_OFFSET, PSB_VDC_SIZE);
++
++      if (!priv->vdc_reg) {
++              /* Normally we'd want to unload the driver on failure.  But due
++               * to circular dependancies, we can only return failure.
++               */
++              /* psb_driver_unload(dev); */
++              return 1;
++      }
++
++      priv->sgx_reg = ioremap(resource_start + PSB_SGX_OFFSET, PSB_SGX_SIZE);
++      if (!priv->sgx_reg) {
++              /* Normally we'd want to unload the driver on failure.  But due
++               * to circular dependancies, we can only return failure.
++               */
++              /* psb_driver_unload(dev); */
++              return 1;
++      }
++
++      priv->msvdx_reg = ioremap(resource_start + PSB_MSVDX_OFFSET, PSB_MSVDX_SIZE);
++      if (!priv->msvdx_reg) {
++              /* Normally we'd want to unload the driver on failure.  But due
++               * to circular dependancies, we can only return failure.
++               */
++              /* psb_driver_unload(dev); */
++              return 1;
++      }
++
++      return 0;
++
++}
++
++void intel_preclose_2615(drm_device_t *dev,DRMFILE filp)
++{
++      intel_prerelease(dev);
++}
++
++
++int intel_getpages_2615( struct inode *inode, struct file *filp,
++      unsigned int cmd, unsigned long arg)
++{
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++      return  intel_getpages(dev,filp,arg);
++}
++
++
++int intel_freepages_2615( struct inode *inode, struct file *filp,
++      unsigned int cmd, unsigned long arg )
++{
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++      return  intel_freepages(dev,arg);
++}
++
++
++int intel_drm_info_init_2615( struct inode *inode, struct file *filp,
++      unsigned int cmd, unsigned long arg )
++{
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++      return  intel_drm_info_init(dev,arg);
++
++}
++
++
++int intel_drm_info_get_2615( struct inode *inode, struct file *filp,
++      unsigned int cmd, unsigned long arg )
++{
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++      return  intel_drm_info_get(dev,arg);
++
++}
++
++
++/* Following 2 functions were taken from drm_memory.c 
++ * For some reason they are not being exported to use
++ * by the other drm.
++ */
++
++/**
++ * Allocate pages.
++ *
++ * \param order size order.
++ * \param area memory area. (Not used.)
++ * \return page address on success, or zero on failure.
++ *
++ * Allocate and reserve free pages.
++ */
++unsigned long intel_alloc_pages(int order, int area)
++{
++      unsigned long address;
++      unsigned long bytes       = PAGE_SIZE << order;
++      unsigned long addr;
++      unsigned int  sz;
++
++      address = __get_free_pages(GFP_KERNEL, order);
++      if (!address) 
++              return 0;
++
++                              /* Zero */
++      memset((void *)address, 0, bytes);
++
++                              /* Reserve */
++      for (addr = address, sz = bytes;
++           sz > 0;
++           addr += PAGE_SIZE, sz -= PAGE_SIZE) {
++              SetPageReserved(virt_to_page(addr));
++      }
++
++      return address;
++}
++
++
++/**
++ * Free pages.
++ * 
++ * \param address address of the pages to free.
++ * \param order size order.
++ * \param area memory area. (Not used.)
++ *
++ * Unreserve and free pages allocated by alloc_pages().
++ */
++void intel_free_pages(unsigned long address, int order, int area)
++{
++      unsigned long bytes = PAGE_SIZE << order;
++      unsigned long addr;
++      unsigned int  sz;
++
++      if (!address) {
++              return;
++      }
++
++      /* Unreserve */
++      for (addr = address, sz = bytes;
++           sz > 0;
++           addr += PAGE_SIZE, sz -= PAGE_SIZE) {
++              ClearPageReserved(virt_to_page(addr));
++      }
++
++      free_pages(address, order);
++}
++
++static int psb_driver_load(struct drm_device *dev, unsigned long chipset)
++{
++      intel_device_private_t *priv;
++
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      return 0;
++}
++
++int intel_drm_plb_interrupts_2615 ( struct inode *inode,
++                              struct file *filp,
++                              unsigned int cmd, void *arg )
++{
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->head->dev;
++
++      return intel_drm_plb_interrupts( dev, arg );
++}
++
++drm_ioctl_desc_t intel_ioctls[] = {
++      [DRM_IOCTL_NR(DRM_INTEL_GETPAGES)] = { intel_getpages_2615,  0},
++      [DRM_IOCTL_NR(DRM_INTEL_FREEPAGES)] = { intel_freepages_2615, 0},
++      [DRM_IOCTL_NR(DRM_INTEL_INFO_INIT)] = { intel_drm_info_init_2615, 0},
++      [DRM_IOCTL_NR(DRM_INTEL_INFO_GET)] = { intel_drm_info_get_2615,  0},
++      [DRM_IOCTL_NR(DRM_INTEL_INTERRUPT)] = {intel_drm_plb_interrupts_2615,0}
++};
++
++int intel_max_ioctl = DRM_ARRAY_SIZE(intel_ioctls);
++
++
++
++static struct pci_device_id pciidlist[] = {
++      INTEL_PCI_IDS
++};
++
++int device_is_agp_2615(drm_device_t * dev)
++{
++      return 1;
++}
++
++
++static struct drm_driver driver = {
++      .firstopen = intel_firstopen_2615,
++      .preclose = intel_preclose_2615,
++      .reclaim_buffers=drm_core_reclaim_buffers,
++      .get_map_ofs=drm_core_get_map_ofs,
++      .get_reg_ofs=drm_core_get_reg_ofs,
++
++      .device_is_agp = device_is_agp_2615,
++
++      .major = DRIVER_MAJOR,
++      .minor = DRIVER_MINOR,
++      .patchlevel = DRIVER_PATCHLEVEL,
++      .name = DRIVER_NAME,
++      .desc = DRIVER_DESC,
++      .date = DRIVER_DATE,
++
++      .driver_features = DRIVER_USE_AGP|DRIVER_REQUIRE_AGP|DRIVER_USE_MTRR,
++      .ioctls = intel_ioctls,
++      .fops = {
++              .owner = THIS_MODULE,
++              .open = drm_open,
++              .release = drm_release,
++              .ioctl = drm_ioctl,
++              .mmap = drm_mmap,
++              .poll = drm_poll,
++              .fasync = drm_fasync,
++      },
++      .pci_driver = {
++              .name          = DRIVER_NAME,
++              .id_table      = pciidlist,
++      }
++};
++
++static struct drm_driver driver_plb = {
++      .load = psb_driver_load,
++      .firstopen = intel_psb_firstopen_2615,
++      .preclose = intel_preclose_2615,
++      .reclaim_buffers=drm_core_reclaim_buffers,
++      .get_map_ofs=drm_core_get_map_ofs,
++      .get_reg_ofs=drm_core_get_reg_ofs,
++
++      .device_is_agp = device_is_agp_2615,
++
++      .major = DRIVER_MAJOR,
++      .minor = DRIVER_MINOR,
++      .patchlevel = DRIVER_PATCHLEVEL,
++      .name = DRIVER_NAME,
++      .desc = DRIVER_DESC,
++      .date = DRIVER_DATE,
++
++      .driver_features = DRIVER_USE_AGP | DRIVER_REQUIRE_AGP |
++              DRIVER_HAVE_IRQ | DRIVER_IRQ_SHARED,
++      .ioctls = intel_ioctls,
++      .irq_preinstall = psb_irq_preinstall,
++      .irq_postinstall = psb_irq_postinstall,
++      .irq_uninstall = psb_irq_uninstall,
++      .irq_handler = psb_irq_handler,
++
++      .fops = {
++              .owner = THIS_MODULE,
++              .open = drm_open,
++              .release = drm_release,
++              .ioctl = drm_ioctl,
++              .mmap = drm_plb_mmap,
++              .poll = drm_poll,
++              .fasync = drm_fasync,
++      },
++      .pci_driver = {
++              .name          = DRIVER_NAME,
++              .id_table      = pciidlist,
++      }
++};
++
++
++int intel_init(void)
++{
++      driver.num_ioctls = intel_max_ioctl;
++      driver_plb.num_ioctls = intel_max_ioctl;
++
++      /* We are peeking into the global AGP structures that
++       * we have access to in order to determine what chipset we're
++       * on.  This isn't necessarily a good thing to do.
++       */
++
++      if (gart_id->device_id == PCI_DEVICE_ID_PLB) {
++              printk(KERN_ERR "Initializing DRM for Intel US15 SCH\n");
++              return drm_init(&driver_plb);
++      } else {
++              return drm_init(&driver);
++      }
++
++}
++
++void intel_exit(void)
++{
++      drm_exit(&driver);
++}
++
++struct file_operations intel_buffer_fops = {
++      .open    = drm_open,
++      .release = drm_release,
++      .ioctl   = drm_ioctl,
++      .mmap    = intel_mmap_buffers,
++      .poll = drm_poll,
++      .fasync  = drm_fasync,
++};
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2615.h patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2615.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2615.h 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2615.h   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,72 @@
++
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface_2615.h
++ * $Revision: 1.6 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++/* Macros are defined here such that only kernel specific functions can be
++ * used.
++ */
++#if KERNEL2615
++#define REMAP_PAGE(a,b,c,d,e) io_remap_pfn_range(a,b, \
++              c >>PAGE_SHIFT,                                                                 \
++              d,e)
++
++#define ORDER(a) drm_order(a) 
++#define ALLOC_PAGES(a,b) intel_alloc_pages(a,b) 
++#define ALLOC(a,b) drm_alloc(a,b) 
++#define FREE(a,b,c) drm_free(a,b,c) 
++#define FREE_PAGES(a,b,c) intel_free_pages(a,b,c) 
++
++#define LOCK_DRM(d) mutex_lock(&d->struct_mutex)
++#define UNLOCK_DRM(d) mutex_unlock(&d->struct_mutex)
++#endif
++
++/* endif for KERNEL2615 */
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2624.c patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2624.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2624.c 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2624.c   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,820 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface_2611.c
++ * $Revision: 1.8 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#include "iegd.h"
++#include "drmP.h"
++#include "drm.h"
++
++#include "iegd_drm.h"
++#include "iegd_drv.h"
++#include "psb_intregs.h"
++#include "intelpci.h"
++
++int drm_irq_install(drm_device_t *dev);
++
++#if KERNEL2624
++
++/* get intel_buffer_fops from the interface_###.c files */
++extern struct file_operations intel_buffer_fops;
++
++/* Global variable to keep track the amount of memory we are using */
++static int memory = 0;
++
++int intel_firstopen_2624(struct drm_device *dev)
++{
++      intel_device_private_t *priv;
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      intel_postinit(&priv);
++      dev->dev_private=priv;
++
++      return 0;
++
++}
++
++int intel_plb_firstopen_2624(struct drm_device *dev)
++{
++
++      unsigned long resource_start;
++      intel_device_private_t *priv;
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      intel_postinit(&priv);
++      psb_init(priv);
++      dev->dev_private=priv;
++
++      /*
++       * Map MMIO addresses so that the DRM can control interrupt support
++       */
++
++      resource_start = pci_resource_start(dev->pdev, PSB_MMIO_RESOURCE);
++      priv->vdc_reg = ioremap(resource_start + PSB_VDC_OFFSET, PSB_VDC_SIZE);
++      if (!priv->vdc_reg) {
++              /*
++               * Normally we'd want to unload the driver on failure.  But due
++               * to circular dependancies, we can only return failure.
++               */
++              /* psb_driver_unload(dev); */
++              return 1;
++      }
++
++      priv->sgx_reg = ioremap(resource_start + PSB_SGX_OFFSET, PSB_SGX_SIZE);
++      if (!priv->sgx_reg) {
++              /*
++               * Normally we'd want to unload the driver on failure.  But due
++               * to circular dependancies, we can only return failure.
++               */
++              /* psb_driver_unload(dev); */
++              return 1;
++      }
++
++      priv->msvdx_reg = ioremap(resource_start + PSB_MSVDX_OFFSET, PSB_MSVDX_SIZE);
++      if (!priv->msvdx_reg) {
++              /*
++               * Normally we'd want to unload the driver on failure.  But due
++               * to circular dependancies, we can only return failure.
++               */
++              /* psb_driver_unload(dev); */
++              return 1;
++      }
++
++      return 0;
++
++}
++
++void intel_preclose_2624(drm_device_t *dev, struct drm_file *filp)
++{
++      intel_prerelease(dev);
++}
++
++/*
++ * Implement the 2.6.24 kernel interface for the device specific IOCTL
++ * that gets pages of memory from the DRM and returns them to the caller.
++ */
++int intel_getpages_2624(struct drm_device *dev,
++              void *data,
++              struct drm_file *filepriv)
++{
++      drm_intel_getpages_t *getpages;
++      unsigned long bytes;
++      int order;
++      int size;
++
++      unsigned long address;
++      unsigned long phy_address;
++      unsigned long offset;
++
++      struct page *pg;
++
++      unsigned long virtual;
++      struct file_operations *old_fops;
++
++      intel_device_private_t *dev_ptr = dev->dev_private;
++      drm_intel_listpages_t *page;
++      drm_intel_list_t     *list;
++
++      DRM_DEBUG("\n");
++      DRM_INFO("in intel_getpages_2624, calling intel_getpages\n");
++      getpages = (drm_intel_getpages_t *)data;
++
++      bytes = getpages->size;
++
++      /*
++       * Check to see if this allocation would exceed 16MEG in total memory
++       * This is to prevent denial of service attack. 16Meg should be enough.
++       */
++      if((memory + bytes) > MB(16) ){
++              /* We exceeded 16MEG. Bail out */
++              DRM_ERROR("Total memory allocated exceeded 16Meg!\n");
++              DRM_INFO("Total memory allocated exceeded 16Meg!\n");
++              return -EFAULT;
++      }
++
++      /* number of pages that are needed */
++      size = bytes>>PAGE_SHIFT;
++      if(bytes & ~(PAGE_SIZE*size)){
++              ++size;
++      }
++      order = ORDER(size);
++      DRM_DEBUG("Allocating bytes:%#lx,size:%d,order:%d\n",
++              (unsigned long)bytes,size,order); 
++
++      /*
++       * Allocate the pages.
++       * returns kernel logical address. 
++       * Is this the same as the kernel virtual address?? 
++       */
++      address = ALLOC_PAGES(order,0);
++      if(!address){
++              DRM_ERROR("Can't get pages\n");
++              DRM_INFO("Can't get pages\n");
++              return -EFAULT;
++      }
++      phy_address = __pa(address);
++
++      /* Find virtual address of the phys address */
++      pg = virt_to_page((void *)address);
++      offset = pg->index;
++
++      /* Find the number of bytes that is actually allocated */
++      size = PAGE_SIZE<<order;
++      DRM_DEBUG("Allocated address:%#lx,page offset:%#lx,phy_address:%#lx\n",
++              address,offset,phy_address); 
++
++      /*do_mmap on the logical address and return virtual address */
++      down_write(&current->mm->mmap_sem);
++
++      old_fops = (struct file_operations *) (filepriv->filp->f_op);
++      filepriv->filp->f_op = &intel_buffer_fops;
++
++      virtual = do_mmap(filepriv->filp, 0, size,
++                      PROT_READ|PROT_WRITE,MAP_SHARED, phy_address);
++      filepriv->filp->f_op = old_fops;
++
++      up_write(&current->mm->mmap_sem);
++      DRM_DEBUG("Mmaped virtual:%#lx,address:%#lx\n",virtual,
++              (unsigned long)__va(phy_address));
++
++      if(virtual > -1024UL){
++              DRM_ERROR("mmap failed:%d\n",(int)virtual);
++              DRM_INFO("mmap failed:%d\n",(int)virtual);
++              return -EFAULT;
++      }
++
++      getpages->phy_address = phy_address;
++      getpages->virt_address = virtual;
++      getpages->size = size;
++      getpages->offset = offset;
++
++      DRM_DEBUG("Mmap success requested size:%d (%d)\n",
++              getpages->size,(int)bytes);
++
++      /* alloc the page to be put into the linked list */
++      page = ALLOC(sizeof(*page),DRM_MEM_DRIVER);
++      if(!page){
++              DRM_DEBUG("Can't alloc list for page\n");
++              DRM_INFO("Can't alloc list for page\n");
++              return -ENOMEM;
++      }
++
++      /*page->pid=current->pid;*/
++      page->pid = current->group_leader->pid;
++      page->size = size;
++      page->phy_address = phy_address;
++      page->virt_address = virtual;
++      page->offset = offset;
++
++      DRM_DEBUG("parent pid:%d,pid:%d,group_leader->pid:%d\n"
++              ,current->parent->pid,current->pid,current->group_leader->pid);
++
++      /* Alloc the list to be added then add it to the linked list */
++      list = ALLOC(sizeof(*list),DRM_MEM_DRIVER);
++      if(!list){
++              DRM_DEBUG("Can't alloc list for page\n");
++              DRM_INFO("Can't alloc list for page\n");
++              FREE(page,sizeof(*page),0);
++              return -ENOMEM;
++      }
++      memset(list,0,sizeof(*list));
++      list->page = page;
++      LOCK_DRM(dev);
++      list_add(&list->head,&dev_ptr->pagelist->head);
++      UNLOCK_DRM(dev);
++
++      /* update the total amount of memory we use */
++      memory += size;
++      DRM_DEBUG("memory has:%d bytes\n",memory);
++
++      DRM_INFO("intel_getpages Exit\n");
++      return 0;
++}
++
++
++/*
++ * Implement the 2.6.24 kernel interface for the device specific IOCTL
++ * that frees pages of memory that were previouslly allocated from the DRM.
++ */
++int intel_freepages_2624(struct drm_device *dev,
++              void *data,
++              struct drm_file *filepriv)
++{
++      drm_intel_freepages_t *freepages;
++      unsigned long bytes;
++      int order;
++      int size;
++
++      intel_device_private_t *dev_ptr=dev->dev_private;
++      drm_intel_listpages_t *page;
++      drm_intel_list_t *r_list=NULL;
++      struct list_head *pagelist;
++
++      DRM_DEBUG("Freeing pages\n");
++      freepages = (drm_intel_freepages_t *)data;
++
++      /* number of pages that are needed */
++      bytes = freepages->size;
++      size = bytes>>PAGE_SHIFT;
++      if(bytes & ~(PAGE_SIZE*size)){
++              ++size;
++      }
++      order = ORDER(size);
++      DRM_DEBUG("bytes:%d,size:%d,order:%d,phy_address:%#lx\n", (int)bytes,
++                      (int)size,(int)order,freepages->phy_address);
++
++      /* free the pages */
++      DRM_DEBUG("freeing address:%#lx,size:%#lx\n",
++                      (unsigned long)__va(freepages->phy_address),(unsigned long)bytes);
++
++      DRM_DEBUG("parent pid:%d,pid:%d,group_leader->pid:%d\n"
++              ,current->parent->pid,current->pid,current->group_leader->pid);
++
++      /* See if the requested address is in our page list */
++      LOCK_DRM(dev);
++      pagelist = &dev_ptr->pagelist->head;
++      list_for_each(pagelist, &dev_ptr->pagelist->head){
++              r_list=list_entry(pagelist, drm_intel_list_t, head);
++              if((r_list->page->pid==current->group_leader->pid)
++                      && (r_list->page->phy_address==freepages->phy_address)){
++
++              DRM_DEBUG("found pid:%d\n",current->group_leader->pid);
++              DRM_DEBUG("size:%d\n",r_list->page->size);
++              DRM_DEBUG("phy_address:%#lx\n",r_list->page->phy_address);
++              DRM_DEBUG("virt_add:%#lx\n",r_list->page->virt_address);
++              DRM_DEBUG("offset:%#lx\n",r_list->page->offset);
++
++              break;
++              }
++
++      }
++
++      if(pagelist == (&dev_ptr->pagelist->head)){
++              DRM_DEBUG("Can't find pages alloc for pid:%d\n",current->pid);
++              UNLOCK_DRM(dev);
++              return -EINVAL;
++      }
++
++      /* munmap the region 1st */
++      down_write(&current->mm->mmap_sem);
++      DRM_DEBUG("Unmapping virt_address:%#lx\n",freepages->virt_address);
++      do_munmap(current->mm,freepages->virt_address,bytes);
++      up_write(&current->mm->mmap_sem);
++
++      /* Free the pages! */
++      FREE_PAGES((unsigned long)__va(freepages->phy_address), order, 0);
++
++      /* Free the page list */
++      page = r_list->page;
++      list_del(pagelist);
++      size = r_list->page->size;
++      FREE(pagelist,sizeof(*pagelist),0);
++      FREE(page,sizeof(*page),0);
++      UNLOCK_DRM(dev);
++
++      /* update the total memory that we use */
++      memory -= size;
++      DRM_DEBUG("memory has:%d bytes\n", memory);
++      return 0;
++}
++
++
++/*
++ * Implement the 2.6.24 kernel interface for the device specific IOCTL
++ * that stores client specific information.
++ */
++int intel_drm_info_init_2624(struct drm_device *dev,
++              void *data,
++              struct drm_file *filepriv)
++{
++      intel_drm_info_t *info;
++      intel_drm_info_t *info_ptr;
++      intel_device_private_t *dev_ptr;
++
++      if (dev == NULL) {
++              DRM_INFO("ERROR ERROR, drm device is NULL\n");
++              return -EFAULT;
++      }
++      DRM_DEBUG("info init succesful dev_private:%#lx\n",
++                      (unsigned long)dev->dev_private);
++      dev_ptr = dev->dev_private;
++
++      /* See if dev_private is already allocated */
++      if(!dev->dev_private){
++              DRM_ERROR("dev_private not allocated!\n");
++              return 0;
++      }
++      info_ptr = dev_ptr->info_ptr;
++
++      /* See if info is already allocated */
++      if(info_ptr->device_id){
++              DRM_DEBUG("Info already allocated: device id = 0x%lx\n",
++                              info_ptr->device_id);
++              DRM_ERROR("Info already allocated!\n");
++              return 0;
++      }
++
++      info = (intel_drm_info_t *)data;
++
++      info_ptr->device_id = info->device_id;
++      info_ptr->revision = info->revision;
++      info_ptr->video_memory_offset = info->video_memory_offset;
++      info_ptr->video_memory_size = info->video_memory_size;
++      info_ptr->hw_status_offset = info->hw_status_offset;
++      DRM_DEBUG("Saving dev_id:%#lx  rev:%#lx  offset:%#lx  size:%#lx,  "
++                      "hwst_offset:%lx\n",
++              info_ptr->device_id, info_ptr->revision,
++              info_ptr->video_memory_offset, info_ptr->video_memory_size,
++              info_ptr->hw_status_offset);
++
++      return 0;
++}
++
++
++/*
++ * Implement the 2.6.24 kernel interface for the device specific IOCTL
++ * that retrieves client specific information.
++ */
++int intel_drm_info_get_2624(struct drm_device *dev,
++              void *data,
++              struct drm_file *filepriv)
++{
++      intel_drm_info_t *info;
++      intel_device_private_t *dev_ptr = dev->dev_private;
++      intel_drm_info_t *info_ptr = dev_ptr->info_ptr;
++
++      DRM_DEBUG("Info get dev_id:%#lx  rev:%#lx  offset:%#lx  size:%#lx  "
++                      "hwst_offset:%lx\n",
++              info_ptr->device_id,info_ptr->revision,
++              info_ptr->video_memory_offset,info_ptr->video_memory_size,
++              info_ptr->hw_status_offset);
++
++      info = (intel_drm_info_t *)data;
++
++      info->device_id = info_ptr->device_id;
++      info->revision = info_ptr->revision;
++      info->video_memory_offset = info_ptr->video_memory_offset;
++      info->video_memory_size = info_ptr->video_memory_size;
++      info->hw_status_offset = info_ptr->hw_status_offset;
++
++      return 0;
++}
++
++/*
++ * The following 2 functions were taken from drm_memory.c 
++ * For some reason they are not being exported to use by the other drm.
++ */
++
++/**
++ * Allocate pages.
++ *
++ * \param order size order.
++ * \param area memory area. (Not used.)
++ * \return page address on success, or zero on failure.
++ *
++ * Allocate and reserve free pages.
++ */
++unsigned long intel_alloc_pages(int order, int area)
++{
++      unsigned long address;
++      unsigned long bytes       = PAGE_SIZE << order;
++      unsigned long addr;
++      unsigned int  sz;
++
++      address = __get_free_pages(GFP_KERNEL, order);
++      if (!address) 
++              return 0;
++
++                              /* Zero */
++      memset((void *)address, 0, bytes);
++
++                              /* Reserve */
++      for (addr = address, sz = bytes;
++           sz > 0;
++           addr += PAGE_SIZE, sz -= PAGE_SIZE) {
++              SetPageReserved(virt_to_page(addr));
++      }
++
++      return address;
++}
++
++/**
++ * Free pages.
++ *
++ * \param address address of the pages to free.
++ * \param order size order.
++ * \param area memory area. (Not used.)
++ *
++ * Unreserve and free pages allocated by alloc_pages().
++ */
++void intel_free_pages(unsigned long address, int order, int area)
++{
++      unsigned long bytes = PAGE_SIZE << order;
++      unsigned long addr;
++      unsigned int  sz;
++
++      if (!address) {
++              return;
++      }
++
++      /* Unreserve */
++      for (addr = address, sz = bytes; sz > 0;
++                      addr += PAGE_SIZE, sz -= PAGE_SIZE) {
++              ClearPageReserved(virt_to_page(addr));
++      }
++
++      free_pages(address, order);
++}
++
++static int psb_driver_load(struct drm_device *dev, unsigned long chipset)
++{
++      intel_device_private_t *priv;
++
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      return 0;
++}
++
++int intel_drm_plb_interrupts_2624 (struct drm_device *dev,
++              void *data,
++              struct drm_file *filepriv)
++{
++      intel_device_private_t *priv = dev->dev_private;
++      interrupt_info_t *plb_info;
++      unsigned long irqflags;
++      int ret = 0;
++      int rv;
++
++      plb_info = (interrupt_info_t *)data;
++
++      /* USW15 definition of in and out
++       *
++       * in/out[0] VDC
++       * in/out[1] sgx
++       * in/out[2] sgx2
++       * in/out[3] msvdx
++       */
++
++      plb_info->out[0]=0;
++      plb_info->out[1]=0;
++      plb_info->out[2]=0;
++      plb_info->out[3]=0;
++
++      switch (plb_info->req_type) {
++              case CLEAR_INT:
++                      plb_info->in[0] &= priv->vdc_irq_mask;
++                      plb_info->in[1] &= priv->sgx_irq_mask;
++                      plb_info->in[2] &= priv->sgx_irq_mask2;
++                      plb_info->in[3] &= priv->msvdx_irq_mask;
++
++                      if (plb_info->in[0] || plb_info->in[1] ||
++                                      plb_info->in[2] || plb_info->in[3]) {
++
++                              spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++                              priv->out_vdc &= ~plb_info->in[0];
++                              plb_info->out[0] = priv->out_vdc;
++
++                              priv->out_sgx &= ~plb_info->in[1];
++                              plb_info->out[1] = priv->out_sgx;
++
++                              priv->out_sgx2 &= ~plb_info->in[2];
++                              plb_info->out[2] = priv->out_sgx2;
++
++                              priv->out_mtx &= ~plb_info->in[3];
++                              plb_info->out[3] = priv->out_mtx;
++                              spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++                              plb_info->req_status = INT_CLEARED;
++
++                      } else {
++                              plb_info->req_status = INT_NOOP;
++                      }
++
++                      break;
++
++              case READ_INT:
++                      plb_info->out[0] = priv->out_vdc;
++                      plb_info->out[1] = priv->out_sgx;
++                      plb_info->out[2] = priv->out_sgx2;
++                      plb_info->out[3] = priv->out_mtx;
++                      plb_info->req_status = INT_READ;
++
++                      break;
++
++              case WAIT_INT:
++                      plb_info->in[0] &= priv->vdc_irq_mask;
++                      plb_info->in[1] &= priv->sgx_irq_mask;
++                      plb_info->in[2] &= priv->sgx_irq_mask2;
++                      plb_info->in[3] &= priv->msvdx_irq_mask;
++
++                      if (plb_info->in[0] || plb_info->in[1] ||
++                                      plb_info->in[2] || plb_info->in[3]) {
++
++                              spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++
++                              /* none of the interrupts have ocurred */
++                              if ((priv->out_vdc & plb_info->in[0]) ||
++                                              (priv->out_sgx & plb_info->in[1]) ||
++                                              (priv->out_sgx2 & plb_info->in[2]) ||
++                                              (priv->out_mtx & plb_info->in[3])) {
++
++                                      /* At least one of the interrupts has already occurred */
++                                      plb_info->req_status = INT_STORED;
++
++                              } else {
++
++                                      /* Wait for an interrupt to occur */
++                                      priv->event_present = 0;
++                                      spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++                                      DRM_WAIT_ON(ret, priv->event_queue, 20 * DRM_HZ,
++                                                      priv->event_present);
++
++                                      if (ret) {
++                                              plb_info->req_status = INT_TIMEOUT;
++                                              break;
++                                      }
++
++                                      spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++
++                                      plb_info->req_status = INT_HANDLED;
++
++                              }
++                              plb_info->out[0] = priv->out_vdc;
++                              plb_info->out[1] = priv->out_sgx;
++                              plb_info->out[2] = priv->out_sgx2;
++                              plb_info->out[3] = priv->out_mtx;
++
++                              /* Clear the outstanding interrupts that have just been
++                               * retrieved
++                               */
++                              priv->out_vdc &= ~(plb_info->out[0] & plb_info->in[0]);
++                              priv->out_sgx &= ~(plb_info->out[1] & plb_info->in[1]) ;
++                              priv->out_sgx2 &= ~(plb_info->out[2] & plb_info->in[2]);
++                              priv->out_mtx &= ~(plb_info->out[3] & plb_info->in[3]);
++                              spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++                      } else {
++
++                              /* Unsupported interrupt */
++                              plb_info->req_status = INT_NOOP;
++
++                      }
++
++                      break;
++
++              case UNMASK_INT:
++      
++                      if (!dev->irq_enabled) {
++                              rv = drm_irq_install(dev);
++                              if (rv != 0) {
++                                      DRM_ERROR("%s: could not install IRQs: rv = %d\n", __FUNCTION__, rv);
++                                      return rv;
++                              }
++                      }
++
++                      spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++                      PSB_WVDC32(0x00000000, IMR);
++                      spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++                      break;
++
++              case MASK_INT:
++      
++                      if (dev->irq_enabled) {
++                              rv = drm_irq_uninstall(dev);
++                              if (rv != 0) {
++                                      DRM_ERROR("%s: could not uninstall IRQs: rv = %d\n", __FUNCTION__, rv);
++                                      return rv;
++                              }
++                      }
++
++                      spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++                      PSB_WVDC32(0xFFFFFFFF, IMR);
++                      spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++                      break;
++
++              default:
++
++                      plb_info->req_status = INT_INVALID;
++      }
++
++      return 0;
++}
++
++
++drm_ioctl_desc_t intel_ioctls[] = {
++      DRM_IOCTL_DEF(DRM_INTEL_GETPAGES, intel_getpages_2624, 0),
++      DRM_IOCTL_DEF(DRM_INTEL_FREEPAGES, intel_freepages_2624, 0),
++      DRM_IOCTL_DEF(DRM_INTEL_INFO_INIT, intel_drm_info_init_2624, 0),
++      DRM_IOCTL_DEF(DRM_INTEL_INFO_GET, intel_drm_info_get_2624, 0),
++      DRM_IOCTL_DEF(DRM_INTEL_INTERRUPT, intel_drm_plb_interrupts_2624, 0)
++};
++
++int intel_max_ioctl = DRM_ARRAY_SIZE(intel_ioctls);
++
++
++
++static struct pci_device_id pciidlist[] = {
++      INTEL_PCI_IDS
++};
++
++int device_is_agp_2624(drm_device_t * dev)
++{
++      return 1;
++}
++
++static struct drm_driver driver = {
++      .firstopen = intel_firstopen_2624,
++      .preclose = intel_preclose_2624,
++      .reclaim_buffers=drm_core_reclaim_buffers,
++      .get_map_ofs=drm_core_get_map_ofs,
++      .get_reg_ofs=drm_core_get_reg_ofs,
++
++      .device_is_agp = device_is_agp_2624,
++
++      .major = DRIVER_MAJOR,
++      .minor = DRIVER_MINOR,
++      .patchlevel = DRIVER_PATCHLEVEL,
++      .name = DRIVER_NAME,
++      .desc = DRIVER_DESC,
++      .date = DRIVER_DATE,
++
++      .driver_features = DRIVER_USE_AGP|DRIVER_REQUIRE_AGP|DRIVER_USE_MTRR,
++      .ioctls = intel_ioctls,
++      .fops = {
++              .owner = THIS_MODULE,
++              .open = drm_open,
++              .release = drm_release,
++              .ioctl = drm_ioctl,
++              .mmap = drm_mmap,
++              .poll = drm_poll,
++              .fasync = drm_fasync,
++      },
++      .pci_driver = {
++              .name          = DRIVER_NAME,
++              .id_table      = pciidlist,
++      }
++};
++
++static struct drm_driver driver_plb = {
++      .load = psb_driver_load,
++      .firstopen = intel_plb_firstopen_2624,
++      .preclose = intel_preclose_2624,
++      .reclaim_buffers=drm_core_reclaim_buffers,
++      .get_map_ofs=drm_core_get_map_ofs,
++      .get_reg_ofs=drm_core_get_reg_ofs,
++
++      .device_is_agp = device_is_agp_2624,
++
++      .major = DRIVER_MAJOR,
++      .minor = DRIVER_MINOR,
++      .patchlevel = DRIVER_PATCHLEVEL,
++      .name = DRIVER_NAME,
++      .desc = DRIVER_DESC,
++      .date = DRIVER_DATE,
++
++      .driver_features = DRIVER_USE_AGP | DRIVER_REQUIRE_AGP |
++              DRIVER_HAVE_IRQ | DRIVER_IRQ_SHARED | DRIVER_USE_MTRR,
++      .ioctls = intel_ioctls,
++      .irq_preinstall = psb_irq_preinstall,
++      .irq_postinstall = psb_irq_postinstall,
++      .irq_uninstall = psb_irq_uninstall,
++      .irq_handler = psb_irq_handler,
++
++      .fops = {
++              .owner = THIS_MODULE,
++              .open = drm_open,
++              .release = drm_release,
++              .ioctl = drm_ioctl,
++              .mmap = drm_plb_mmap,
++              .poll = drm_poll,
++              .fasync = drm_fasync,
++      },
++      .pci_driver = {
++              .name          = DRIVER_NAME,
++              .id_table      = pciidlist,
++      }
++};
++
++int intel_init(void)
++{
++      driver.num_ioctls = intel_max_ioctl;
++      driver_plb.num_ioctls = intel_max_ioctl;
++
++      /* We are peeking into the global AGP structures that
++       * we have access to in order to determine what chipset we're
++       * on.  This isn't necessarily a good thing to do.
++       */
++
++      if (gart_id->device_id == PCI_DEVICE_ID_PLB) {
++              printk(KERN_ERR "Initializing DRM for Intel US15 SCH\n");
++              return drm_init(&driver_plb);
++      } else {
++              return drm_init(&driver);
++      }
++
++}
++
++void intel_exit(void)
++{
++      drm_exit(&driver);
++}
++
++struct file_operations intel_buffer_fops = {
++      .open    = drm_open,
++      .release = drm_release,
++      .ioctl   = drm_ioctl,
++      .mmap    = intel_mmap_buffers,
++      .poll = drm_poll,
++      .fasync  = drm_fasync,
++};
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2624.h patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2624.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_2624.h 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_2624.h   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,78 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface_2611.h
++ * $Revision: 1.5 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++/* Macros are defined here such that only kernel specific functions can be
++ * used.
++ */
++#if KERNEL2624
++#define REMAP_PAGE(a,b,c,d,e) io_remap_pfn_range(a,b, \
++              c >>PAGE_SHIFT,                                                                 \
++              d,e)
++
++#define ORDER(a) drm_order(a) 
++#define ALLOC_PAGES(a,b) intel_alloc_pages(a,b) 
++
++//kernel version 31 removed some wrapper functions
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,31)
++#define ALLOC(a, b) kmalloc(a, GFP_KERNEL)
++#define FREE(a,b,c) kfree(a)
++#else
++#define ALLOC(a,b) drm_alloc(a,b)
++#define FREE(a,b,c) drm_free(a,b,c)
++#endif
++
++#define FREE_PAGES(a,b,c) intel_free_pages(a,b,c) 
++#define LOCK_DRM(d) mutex_lock(&d->struct_mutex)
++#define UNLOCK_DRM(d) mutex_unlock(&d->struct_mutex)
++#endif
++
++/* endif for KERNEL2624 */
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_265.c patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_265.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_265.c  1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_265.c    2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,147 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface_265.c
++ * $Revision: 1.6 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++#include "iegd.h"
++#include "drmP.h"
++#include "drm.h"
++
++#include "iegd_drm.h"
++#include "iegd_drv.h"
++
++#if KERNEL265 
++#include "drm_agpsupport.h"
++#include "drm_auth.h"
++#include "drm_bufs.h"
++#include "drm_context.h"
++#include "drm_dma.h"
++#include "drm_drawable.h"
++#include "drm_drv.h"
++
++#include "drm_fops.h"
++#include "drm_init.h"
++#include "drm_ioctl.h"
++#include "drm_lock.h"
++#include "drm_memory.h"
++#include "drm_proc.h"
++#include "drm_vm.h"
++#include "drm_stub.h"
++
++int intel_postinit_265(drm_device_t *dev){
++
++      intel_device_private_t *priv;
++      priv=(intel_device_private_t *)dev->dev_private;
++
++      intel_postinit(&priv);
++      dev->dev_private=priv;
++
++      return 0;
++
++}
++
++int intel_prerelease_265(drm_device_t *dev){
++
++      intel_prerelease(dev);
++
++      return 0;
++
++}
++
++int intel_getpages_265( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg ){
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->dev;
++      return  intel_getpages(dev,filp,arg);
++
++
++}
++
++int intel_freepages_265( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg ){
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->dev;
++      return  intel_freepages(dev,arg);
++
++}
++
++int intel_drm_info_init_265( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg ){
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->dev;
++      return  intel_drm_info_init(dev,arg);
++
++}
++
++int intel_drm_info_get_265( struct inode *inode, struct file *filp,
++                        unsigned int cmd, unsigned long arg ){
++
++      drm_file_t *priv=filp->private_data;
++      drm_device_t *dev=priv->dev;
++      return  intel_drm_info_get(dev,arg);
++
++}
++
++struct file_operations intel_buffer_fops = {
++      .open    = DRM(open),
++      .flush   = DRM(flush),
++      .release = DRM(release),
++      .ioctl   = DRM(ioctl),
++      .mmap    = intel_mmap_buffers,
++      .fasync  = DRM(fasync),
++};
++
++#endif
++/*end of 2.6.5 definition */
++
++
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_265.h patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_265.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/iegd_interface_265.h  1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/iegd_interface_265.h    2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,129 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface_265.h
++ * $Revision: 1.6 $
++ *----------------------------------------------------------------------------
++ * Gart and DRM driver for Intel Embedded Graphics Driver
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++/* For some arcane reasons this must be defined for 2.6.5 kernel in 
++ * intel.h if not the drm won't compile properly.
++ */
++#if KERNEL265
++
++
++/* KERNEL265 defines these functions in the drm directory 
++ * that got expanded when you #define DRM(x) intel_##x. This is very ugly and
++ * confusing. Luckily 2.6.11 don't have this. Can't do much here but follow
++ * the rules for it. 
++ */
++#define DRM(x) intel_##x
++
++/* Changing the permission bits to 0,0 for testing. auth,root permission */
++#define DRIVER_IOCTLS                                                     \
++      [DRM_IOCTL_NR(DRM_IOCTL_INTEL_GETPAGES)] = { intel_getpages_265,  0, 0 }, \
++      [DRM_IOCTL_NR(DRM_IOCTL_INTEL_FREEPAGES)] = { intel_freepages_265,  0, 0 },\
++      [DRM_IOCTL_NR(DRM_IOCTL_INTEL_INFO_INIT)] = { intel_drm_info_init_265,  0, 0 },\
++      [DRM_IOCTL_NR(DRM_IOCTL_INTEL_INFO_GET)] = { intel_drm_info_get_265,  0, 0 }   
++
++/* Driver customization:
++ */
++#define __HAVE_RELEASE                1
++#define DRIVER_PRERELEASE() do {                              \
++      intel_prerelease_265(dev);              \
++} while (0)
++
++#define DRIVER_RELEASE() do {                         \
++} while (0)
++
++#define DRIVER_PRETAKEDOWN() do {                                     \
++} while (0)
++
++#define DRIVER_POSTSETUP() do {                                       \
++} while (0)
++
++#define DRIVER_POSTCLEANUP() do {                                     \
++} while (0)
++
++#define DRIVER_POSTINIT() do {                                        \
++      intel_postinit_265(dev);                                \
++} while (0)
++
++/*
++ * Explaination: For unknown reasons the DRM infrastructure has a lot
++ * of really horrid programming techniques to generate custom init
++ * code using header files (containing c code) and macros. Apparently
++ * this is to save a few nano seconds during init.
++ *
++ * This logic here is that if you define this magic macro you will use
++ * this code to count the number of devices you are supporting. We
++ * need to support 2 devices and we don't know the device IDs at startup
++ * and there is usually not 2 PCI devices anyway. So we just return 2
++ * and worry about it later.
++ *
++ * Note: DRM has issues with DIH so for now we'll live with one drm
++ *#define DRIVER_COUNT_CARDS() 2
++ */
++
++/* KERNEL265 defines these functions in the drm directory 
++ * that got expanded when you #define DRM(x) intel_##x. This is very ugly and
++ * confusing. Luckily 2.6.11 don't have this 
++ */
++#define REMAP_PAGE(a,b,c,d,e) remap_page_range( \
++              DRM_RPR_ARG(a) b ,                                              \
++              c,d,e)
++#define ORDER(a) DRM(order)(a) 
++#define ALLOC_PAGES(a,b) DRM(alloc_pages)(a,b) 
++#define ALLOC(a,b) DRM(alloc)(a,b) 
++#define FREE(a,b,c) DRM(free)(a,b,c) 
++#define FREE_PAGES(a,b,c) DRM(free_pages)(a,b,c) 
++
++#define LOCK_DRM(d) down(&d->struct_sem)
++#define UNLOCK_DRM(d) up(&d->struct_sem)
++
++#endif
++/* endif for KERNEL265 */
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/myclient.c patch_script_temp/drivers/gpu/drm/iegd/drm/myclient.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/myclient.c    1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/myclient.c      2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,210 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: myclient.c
++ * $Revision: 1.5 $
++ *----------------------------------------------------------------------------
++ * DRM test program
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ */
++
++/* Copyright 2003 - 2005 Intel Corporation. All Rights Reserved.
++ *
++ * Redistribution and use in source and binary forms, with or without
++ * modification, are permitted provided that the following conditions are met:
++ *    Redistributions of source code must retain the above copyright notice,
++ *      this list of conditions and the following disclaimer.
++ *
++ *      Redistributions in binary form must reproduce the above copyright
++ *      notice, this list of conditions and the following disclaimer in the
++ *      documentation and/or other materials provided with the distribution.
++ *
++ *      Neither the name Intel Corporation nor the names of its contributors
++ *      may be used to endorse or promote products derived from this software
++ *      without specific prior written permission.
++ *
++ * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
++ * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
++ * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
++ * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
++ * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
++ * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
++ * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
++ * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
++ * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
++ * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
++ * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
++ *
++ */
++
++/*client to test the ioctl
++ * make sure you change the permission bits in intel.h to 0,0 
++ * before you start using this
++ */
++
++#include "iegd.h"
++
++#include <fcntl.h>
++#include <unistd.h>
++#include <sys/ioctl.h>
++#include <stdlib.h>
++#include <stdio.h>
++
++#define DRM_IOCTL_BASE                        'd'
++#define DRM_IO(nr)                    _IO(DRM_IOCTL_BASE,nr)
++#define DRM_IOR(nr,type)              _IOR(DRM_IOCTL_BASE,nr,type)
++#define DRM_IOW(nr,type)              _IOW(DRM_IOCTL_BASE,nr,type)
++#define DRM_IOWR(nr,type)             _IOWR(DRM_IOCTL_BASE,nr,type)
++
++#include "intel_drm_client.h"
++
++#define DRM_IOCTL_INTEL_GETPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_GETPAGES, drm_intel_getpages_t)
++#define DRM_IOCTL_INTEL_FREEPAGES         DRM_IOWR(DRM_BASE_COMMAND + \
++                              DRM_INTEL_FREEPAGES, drm_intel_freepages_t)
++#define DRM_IOCTL_INTEL_INFO_INIT             DRM_IOW( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_INIT, intel_drm_info_t)
++#define DRM_IOCTL_INTEL_INFO_GET              DRM_IOR( DRM_BASE_COMMAND + \
++                              DRM_INTEL_INFO_GET, intel_drm_info_t)
++
++
++#define PAGE_SIZE 4096
++int main()
++{
++int file_desc, ret_value;
++printf("ytay starting client\n");
++/* Open the drm */
++file_desc=open("/dev/dri/card0",O_RDWR);
++
++if(file_desc<0){
++/* probably Suse distro since the dev tree is different.
++ * try /dev/card0
++ */
++file_desc=open("/dev/card0",O_RDWR);
++
++}
++
++if(file_desc<0){
++
++printf("ytay can't open device file:%s\n",DRIVER_DESC);
++      exit(-1);
++}
++
++printf("ytay open device file:%d\n",file_desc);
++drm_intel_getpages_t getpages;
++/* set the number of bytes we want the drm to allocate */
++getpages.size=(PAGE_SIZE- 1000); 
++
++ret_value=ioctl(file_desc,DRM_IOCTL_INTEL_GETPAGES,&getpages);
++if(ret_value<0){
++printf("ytay ioctl failed!\n");
++      exit(-1);
++}
++printf("ytay ioctl success\n");
++printf("ytay size%d,phy_address:%#x,virt_address:%#x,offset:%#x\n",getpages.size,getpages.phy_address,getpages.virt_address,getpages.offset);
++
++/* test for memory access */
++
++int i;
++unsigned long *virt_ptr;
++
++virt_ptr=(unsigned long *)getpages.virt_address;
++
++/* input 0..10 into subsequent memory */
++
++for(i=0;i<=11;i++){
++*virt_ptr=i;
++virt_ptr++;
++
++}
++
++/*read from subsequent memory */
++
++virt_ptr=(unsigned long *)getpages.virt_address;
++for(i=0;i<=15;i++){
++printf("virt_ptr@%#x,value:%d\n",virt_ptr,*virt_ptr);
++virt_ptr++;
++}
++/* set the number of bytes we want the drm to allocate */
++getpages.size=(PAGE_SIZE- 1000); 
++
++ret_value=ioctl(file_desc,DRM_IOCTL_INTEL_GETPAGES,&getpages);
++if(ret_value<0){
++printf("ytay ioctl failed!\n");
++      exit(-1);
++}
++printf("ytay ioctl success\n");
++printf("ytay size%d,phy_address:%#x,virt_address:%#x,offset:%#x\n",getpages.size,getpages.phy_address,getpages.virt_address,getpages.offset);
++
++
++/* freeing memory */
++
++drm_intel_freepages_t freepages;
++freepages.size=getpages.size;
++freepages.phy_address=getpages.phy_address;
++freepages.virt_address=getpages.virt_address;
++printf("ytay freeing phy_address:%#x,size:%#x\n",freepages.phy_address,freepages.size);
++/*
++ioctl(file_desc,DRM_IOCTL_INTEL_FREEPAGES,&freepages);
++*/
++/* init the drm info structure in the drm and test its value */
++
++ intel_drm_info_t info;
++ intel_drm_info_t test_info;
++ info.device_id=0x456;
++ info.revision=333;
++ info.video_memory_offset=0x10245;
++ info.video_memory_size=987;
++ info.hw_status_offset=0x444;
++
++ printf("Testing init info device_id:%#x,revision:%d,offset:%#x,size:%d,hw_status_offset:%lx\n",
++      info.device_id,info.revision,info.video_memory_offset,info.video_memory_size,info.hw_status_offset);
++ 
++ ioctl(file_desc,DRM_IOCTL_INTEL_INFO_INIT,&info);
++
++/* init the drm info structure in the drm and test its value */
++
++ info.device_id=0x123;
++ info.revision=456;
++ info.video_memory_offset=0x789;
++ info.video_memory_size=111;
++ info.hw_status_offset=0x555;
++
++ printf("Testing init 2nd info device_id:%#x,revision:%d,offset:%#x,size:%d,hw_status_offset:%lx\n",
++      info.device_id,info.revision,info.video_memory_offset,info.video_memory_size,info.hw_status_offset);
++ 
++ ioctl(file_desc,DRM_IOCTL_INTEL_INFO_INIT,&info);
++
++ printf("Testing init 2nd info device_id:%#x,revision:%d,offset:%#x,size:%d,hw_status_offset:%lx\n",
++      info.device_id,info.revision,info.video_memory_offset,info.video_memory_size,info.hw_status_offset);
++ 
++ ioctl(file_desc,DRM_IOCTL_INTEL_INFO_INIT,&info);
++
++
++
++ ioctl(file_desc,DRM_IOCTL_INTEL_INFO_GET,&test_info);
++
++ printf("Got init info device_id:%#x,revision:%d,offset:%#x,size:%d,hw_status_offset:%lx\n",
++      test_info.device_id,test_info.revision,test_info.video_memory_offset,test_info.video_memory_size,test_info.hw_status_offset);
++
++
++close(file_desc);
++/*
++sleep(100000000000);
++*/
++return 0;
++
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/psb_intregs.h patch_script_temp/drivers/gpu/drm/iegd/drm/psb_intregs.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/psb_intregs.h 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/psb_intregs.h   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,114 @@
++/* -*- pse-c -*-
++ *-----------------------------------------------------------------------------
++ * Filename: psb_intregs.h
++ *-----------------------------------------------------------------------------
++ * INTEL CONFIDENTIAL
++ * Copyright (2002-2008) Intel Corporation All Rights Reserved.
++ * The source code contained or described herein and all documents related to
++ * the source code ("Material") are owned by Intel Corporation or its suppliers
++ * or licensors. Title to the Material remains with Intel Corporation or its
++ * suppliers and licensors. The Material contains trade secrets and proprietary
++ * and confidential information of Intel or its suppliers and licensors. The
++ * Material is protected by worldwide copyright and trade secret laws and
++ * treaty provisions. No part of the Material may be used, copied, reproduced,
++ * modified, published, uploaded, posted, transmitted, distributed, or
++ * disclosed in any way without Intel's prior express written permission.
++ * 
++ * No license under any patent, copyright, trade secret or other intellectual
++ * property right is granted to or conferred upon you by disclosure or
++ * delivery of the Materials, either expressly, by implication, inducement,
++ * estoppel or otherwise. Any license under such intellectual property rights
++ * must be express and approved by Intel in writing.
++ * 
++ * 
++ *-----------------------------------------------------------------------------
++ * Description:
++ *  This file contains the interrupt related register definition  and
++ *  macros for the PLB platform. 
++ *-----------------------------------------------------------------------------
++ */
++
++#ifndef _REGS_H_
++#define _REGS_H_
++
++/*-----------------------------------------------------------------------------
++ * SGX, VDC, and MSVDX interrupt registers
++ ----------------------------------------------------------------------------*/
++//#define SGX_BASE 0x40000
++
++#define PSB_MMIO_RESOURCE        0
++
++#define PSB_VDC_OFFSET           0x00000000
++#define PSB_VDC_SIZE             0x000080000
++#define PSB_SGX_OFFSET           0x00040000
++#define PSB_SGX_SIZE             0x8000
++#define PSB_MSVDX_OFFSET         0x00050000
++#define PSB_MSVDX_SIZE           0x1000
++
++/* bits in PSB_CR_EVENT_STATUS */
++#define PSB_DPM_3D_MEM_FREE    (1<<0)
++#define PSB_OUT_OF_MEM_MT      (1<<1)
++#define PSB_OUT_OF_MEM_GBL     (1<<2)
++#define PSB_REACHED_MEM_THRESH (1<<3)
++#define PSB_TA_TERMINATE       (1<<12)
++#define PSB_TA_FINISHED        (1<<13)
++#define PSB_PIXELBE_END_RENDER (1<<18)
++#define PSB_DPM_TA_MEM_FREE    (1<<24)
++#define PSB_DPM_OUT_OF_MEM_ZLS (1<<25)
++#define PSB_TWOD_COMPLETE      (1<<27)
++#define PSB_TA_DPM_FAULT       (1<<28)
++
++#define PSB_BIF_REQ_FAULT      (1<<4)
++#define PSB_TRIG_DL            (1<<5)
++#define PSB_TRIG_3D            (1<<6)
++#define PSB_TRIG_TA            (1<<7)
++
++#define PSB_CR_EVENT_HOST_ENABLE2               0x0110
++#define PSB_CR_EVENT_HOST_CLEAR2                0x0114
++#define PSB_CR_EVENT_STATUS2                    0x0118
++
++#define PSB_CR_EVENT_HOST_ENABLE                0x0130
++#define PSB_CR_EVENT_HOST_CLEAR                 0x0134
++#define PSB_CR_EVENT_STATUS                     0x012C
++
++#define PSB_MTX_EVENT_HOST_ENABLE               0x0610
++#define PSB_MTX_EVENT_CLEAR                     0x060C
++#define PSB_MTX_EVENT_STATUS                    0x0608
++
++/*-----------------------------------------------------------------------------
++ * Memory mapped I/O Registers Definitions
++ *---------------------------------------------------------------------------*/
++
++/*-----------------------------------------------------------------------------
++ * Instruction and Interrupt Control Registers (01000h - 02FFFh)
++ *---------------------------------------------------------------------------*/
++#define HWSTAM            0x02098  /* Hardware Status Mask */
++#define IER               0x020A0  /* Interrupt Enable */
++#define IIR               0x020A4  /* Interrupt Identity */
++#define IMR               0x020A8  /* Interrupt Mask */
++#define ISR               0x020AC  /* Interrupt Status */
++
++#define PIPEA_STAT             0x70024  /* Pipe A Display Status */
++#define PIPEB_STAT             0x71024  /* Pipe B Display Status */
++
++#define VBLANK_CLEAR          (1<<1)
++#define VSYNC_PIPEB_FLAG      (1<<5)
++#define VSYNC_PIPEA_FLAG      (1<<7)
++#define VBLANK_INTERRUPT_ENABLE (1<<17)
++#define IRQ_SGX_FLAG          (1<<18)
++#define IRQ_MSVDX_FLAG        (1<<19)
++
++#define PSB_WVDC32(_val, _offs) \
++  iowrite32(_val, priv->vdc_reg + (_offs))
++#define PSB_RVDC32(_offs) \
++  ioread32(priv->vdc_reg + (_offs))
++#define PSB_WSGX32(_val, _offs) \
++  iowrite32(_val, priv->sgx_reg + (_offs))
++#define PSB_RSGX32(_offs) \
++  ioread32(priv->sgx_reg + (_offs))
++#define PSB_WMSVDX32(_val, _offs) \
++  iowrite32(_val, priv->msvdx_reg + (_offs))
++#define PSB_RMSVDX32(_offs) \
++  ioread32(priv->msvdx_reg + (_offs))
++
++#endif /* _REGS_H_ */
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/psb_irq.c patch_script_temp/drivers/gpu/drm/iegd/drm/psb_irq.c
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/drm/psb_irq.c     1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/drm/psb_irq.c       2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,185 @@
++/* -*- pse-c -*-
++ *-----------------------------------------------------------------------------
++ * Filename: psb_intregs.h
++ *-----------------------------------------------------------------------------
++ * INTEL CONFIDENTIAL
++ * Copyright (2002-2008) Intel Corporation All Rights Reserved.
++ * The source code contained or described herein and all documents related to
++ * the source code ("Material") are owned by Intel Corporation or its suppliers
++ * or licensors. Title to the Material remains with Intel Corporation or its
++ * suppliers and licensors. The Material contains trade secrets and proprietary
++ * and confidential information of Intel or its suppliers and licensors. The
++ * Material is protected by worldwide copyright and trade secret laws and
++ * treaty provisions. No part of the Material may be used, copied, reproduced,
++ * modified, published, uploaded, posted, transmitted, distributed, or
++ * disclosed in any way without Intel's prior express written permission.
++ * 
++ * No license under any patent, copyright, trade secret or other intellectual
++ * property right is granted to or conferred upon you by disclosure or
++ * delivery of the Materials, either expressly, by implication, inducement,
++ * estoppel or otherwise. Any license under such intellectual property rights
++ * must be express and approved by Intel in writing.
++ * 
++ * 
++ *-----------------------------------------------------------------------------
++ * Description:
++ *  This file contains nterrupt related routines for the PLB platform. 
++ *-----------------------------------------------------------------------------
++ */
++
++#include <linux/version.h>
++#include "drmP.h"
++#include "psb_intregs.h"
++#include "iegd_drm.h"
++
++
++irqreturn_t psb_irq_handler(DRM_IRQ_ARGS)
++{
++      int handled = 0;
++      struct drm_device *dev = (struct drm_device *)arg;
++      intel_device_private_t *priv=dev->dev_private;
++      uint32_t vdc_stat, sgx_stat, sgx_stat2, mtx_stat;
++
++      spin_lock(&priv->irqmask_lock);
++      vdc_stat = PSB_RVDC32(IIR);
++      sgx_stat = PSB_RSGX32(PSB_CR_EVENT_STATUS);
++      sgx_stat2 = PSB_RSGX32(PSB_CR_EVENT_STATUS2);
++      mtx_stat = PSB_RMSVDX32(PSB_MTX_EVENT_STATUS);
++      vdc_stat &= priv->vdc_irq_mask;
++      sgx_stat &= priv->sgx_irq_mask;
++      sgx_stat2 &= priv->sgx_irq_mask2;
++      mtx_stat &= priv->msvdx_irq_mask;
++
++      if (vdc_stat) {
++              PSB_WVDC32(vdc_stat, IIR);
++              (void)PSB_RVDC32(IIR);
++
++              priv->out_vdc |= vdc_stat;
++              handled = 1;
++
++              if (sgx_stat || sgx_stat2 || mtx_stat) {
++                      PSB_WSGX32(sgx_stat, PSB_CR_EVENT_HOST_CLEAR);
++                      (void)PSB_RSGX32(PSB_CR_EVENT_HOST_CLEAR);
++                      PSB_WSGX32(sgx_stat2, PSB_CR_EVENT_HOST_CLEAR2);
++                      (void)PSB_RSGX32(PSB_CR_EVENT_HOST_CLEAR2);
++                      PSB_WMSVDX32(mtx_stat, PSB_MTX_EVENT_CLEAR);
++                      (void)PSB_RMSVDX32(PSB_MTX_EVENT_CLEAR);
++
++                      priv->out_sgx |= sgx_stat;
++                      priv->out_sgx2 |= sgx_stat2;
++                      priv->out_mtx |= mtx_stat;
++
++                      priv->event_present = 1;
++                      spin_unlock(&priv->irqmask_lock);
++                      DRM_WAKEUP(&priv->event_queue);
++
++              } else {
++
++                      spin_unlock(&priv->irqmask_lock);
++
++              }
++
++      } else {
++
++                      spin_unlock(&priv->irqmask_lock);
++
++      }
++
++      if (!handled) {
++              return IRQ_NONE;
++      }
++
++      return IRQ_HANDLED;
++}
++
++void psb_irq_preinstall(struct drm_device *dev)
++{
++      intel_device_private_t *priv =
++      (intel_device_private_t *)dev->dev_private;
++
++      spin_lock(&priv->irqmask_lock);
++      PSB_WVDC32(0xFFFFFFFF, HWSTAM);
++      PSB_WVDC32(0xFFFFFFFF, IMR);
++      PSB_WVDC32(0x00000000, IER);
++
++      PSB_WSGX32(0x00000000, PSB_CR_EVENT_HOST_ENABLE);
++      (void)PSB_RSGX32(PSB_CR_EVENT_HOST_ENABLE);
++      PSB_WSGX32(0x00000000, PSB_CR_EVENT_HOST_ENABLE2);
++      (void)PSB_RSGX32(PSB_CR_EVENT_HOST_ENABLE2);
++      PSB_WMSVDX32(0x00000000, PSB_MTX_EVENT_HOST_ENABLE);
++      (void)PSB_RMSVDX32(PSB_MTX_EVENT_HOST_ENABLE);
++
++      priv->sgx_irq_mask = PSB_TWOD_COMPLETE |
++              PSB_TA_FINISHED | PSB_TA_TERMINATE |
++              PSB_PIXELBE_END_RENDER | PSB_DPM_3D_MEM_FREE |
++              PSB_OUT_OF_MEM_MT | PSB_OUT_OF_MEM_GBL |
++              PSB_REACHED_MEM_THRESH | PSB_DPM_TA_MEM_FREE |
++              PSB_DPM_OUT_OF_MEM_ZLS | PSB_TA_DPM_FAULT;
++
++      priv->sgx_irq_mask2 = PSB_BIF_REQ_FAULT | PSB_TRIG_TA | PSB_TRIG_3D |
++              PSB_TRIG_DL;
++
++      priv->vdc_irq_mask = IRQ_SGX_FLAG | IRQ_MSVDX_FLAG;
++
++      priv->msvdx_irq_mask = (1<<14); /* Enable only MTX interrupt */
++
++      spin_unlock(&priv->irqmask_lock);
++}
++
++#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,27)
++void psb_irq_postinstall(struct drm_device *dev)
++#else
++int psb_irq_postinstall(struct drm_device *dev)
++#endif
++{
++      intel_device_private_t *priv =
++      (intel_device_private_t *)dev->dev_private;
++      unsigned long irqflags;
++
++      spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++      PSB_WVDC32(priv->vdc_irq_mask, IER);
++      PSB_WSGX32(priv->sgx_irq_mask, PSB_CR_EVENT_HOST_ENABLE);
++      (void)PSB_RSGX32(PSB_CR_EVENT_HOST_ENABLE);
++      PSB_WSGX32(priv->sgx_irq_mask2, PSB_CR_EVENT_HOST_ENABLE2);
++      (void)PSB_RSGX32(PSB_CR_EVENT_HOST_ENABLE2);
++      PSB_WMSVDX32(priv->msvdx_irq_mask, PSB_MTX_EVENT_HOST_ENABLE);
++      (void)PSB_RMSVDX32(PSB_MTX_EVENT_HOST_ENABLE);
++
++      priv->irq_enabled = 1;
++      spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,27)
++      return 0;
++#endif
++
++}
++
++void psb_irq_uninstall(struct drm_device *dev)
++{
++      intel_device_private_t *priv =
++      (intel_device_private_t *)dev->dev_private;
++      unsigned long irqflags;
++
++      spin_lock_irqsave(&priv->irqmask_lock, irqflags);
++
++      priv->sgx_irq_mask = 0x00000000;
++      priv->sgx_irq_mask2 = 0x00000000;
++      priv->vdc_irq_mask = 0x00000000;
++      priv->msvdx_irq_mask = 0x00000000;
++
++      /* By default, we're enabling interrupts buy leaving them masked */
++      PSB_WVDC32(0xFFFFFFFF, HWSTAM);
++      PSB_WVDC32(0xFFFFFFFF, IMR);
++      PSB_WVDC32(priv->vdc_irq_mask, IER);
++      PSB_WSGX32(priv->sgx_irq_mask, PSB_CR_EVENT_HOST_ENABLE);
++      PSB_WSGX32(priv->sgx_irq_mask2, PSB_CR_EVENT_HOST_ENABLE2);
++      PSB_WMSVDX32(priv->msvdx_irq_mask, PSB_MTX_EVENT_HOST_ENABLE);
++      wmb();
++      PSB_WVDC32(PSB_RVDC32(IIR), IIR);
++      PSB_WSGX32(PSB_RSGX32(PSB_CR_EVENT_STATUS), PSB_CR_EVENT_HOST_CLEAR);
++      PSB_WSGX32(PSB_RSGX32(PSB_CR_EVENT_STATUS2), PSB_CR_EVENT_HOST_CLEAR2);
++      PSB_WMSVDX32(PSB_RMSVDX32(PSB_MTX_EVENT_STATUS), PSB_MTX_EVENT_CLEAR);
++
++      priv->irq_enabled = 0;
++      spin_unlock_irqrestore(&priv->irqmask_lock, irqflags);
++}
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/global.h patch_script_temp/drivers/gpu/drm/iegd/include/global.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/global.h  1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/include/global.h    2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,160 @@
++/* -*- pse-c -*-
++ * Filename: iegd_interface.c
++ * $Revision: 1.19 $
++ *----------------------------------------------------------------------------
++ * <>
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ *
++ *----------------------------------------------------------------------------
++ * Functions:
++ *
++ *
++ *----------------------------------------------------------------------------
++ */
++
++#ifndef _GART_GLOBAL_DEF
++#define _GART_GLOBAL_DEF
++#include "igd_gart.h"
++#include "igd_abs.h"
++#include "interface_abs.h"
++
++
++#define APER_ENTRY(a,b) sizeof((a))/(b)
++#define AGP_DCACHE_MEMORY 1
++#define AGP_PHYS_MEMORY   2
++
++#define IEGD "IEGD"
++
++/**
++ * This is global data that is shared across file. New global
++ * data should goes here.
++ */
++extern gart_dispatch_t *gart_id;
++extern dev_private_data_t private_data;
++extern struct pci_device_id iegd_pci_table[];
++extern dispatch_table_t driver_dispatch_list[];
++extern struct gatt_mask iegd_cmn_masks[];
++extern struct aper_size_info_fixed iegd_i915_sizes[];
++extern struct aper_size_info_fixed iegd_iq35_sizes[];
++extern struct aper_size_info_fixed iegd_i965_sizes[];
++extern struct aper_size_info_fixed intel_i830_sizes[];
++extern struct aper_size_info_fixed intel_i810_sizes[];
++extern struct aper_size_info_fixed iegd_igm45_sizes[];
++
++/* All dispatch table for the chipset family goes here */
++extern bridge_driver_t drv_alm;
++extern bridge_driver_t drv_nap;
++extern bridge_driver_t drv_gn4;
++extern bridge_driver_t drv_gm45;
++
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++/* Poulsbo */
++extern struct aper_size_info_fixed iegd_plb_sizes[];
++extern bridge_driver_t drv_plb;
++
++/* Poulsbo specific structure so that the DRM can utilize the
++ * AGP's virtual aperture management code
++ */
++extern struct vm_operations_struct iegd_plb_vm_ops;
++#endif
++
++
++/*
++ * Macro to fill device information for PCI devices registration.
++ * Copy from public agpgart in kernel source
++ */
++#define ID(x) {                                                           \
++      .class          = (PCI_CLASS_BRIDGE_HOST << 8), \
++      .class_mask     = ~0,                                       \
++      .vendor         = PCI_VENDOR_ID_INTEL,              \
++      .device         = x,                                        \
++      .subvendor      = PCI_ANY_ID,                           \
++      .subdevice      = PCI_ANY_ID,                           \
++}
++
++#ifdef CONFIG_AGP_DEBUG
++#define AGN_DEBUG(x,y...) printk(KERN_INFO "[" IEGD \
++              ":DEBUG]:%s " x "\n", __FUNCTION__, ##y)
++#else
++#define AGN_DEBUG(x,y...) do {} while(0)
++#endif
++
++#define AGN_ERROR(x,y...) printk(KERN_ALERT "[" IEGD \
++              ":ERROR]:%s: " x "\n", __FUNCTION__, ##y)
++#define AGN_LOG(x,y...) printk(KERN_INFO "[" IEGD "]: " x "\n", ##y)
++
++/**
++ * Global extern function prototype, basically common function
++ * should goes here. Most of this function extern is from
++ * drv_cmn.c
++ */
++extern int iegd_find_device(u16 device);
++extern struct pci_dev *iegd_probe_device(void);
++extern void iegd_cmn_init_gtt_entries(void);
++extern int AGP_FREE_GATT(iegd_cmn_free_gatt_table);
++extern void iegd_cmn_free_by_type(struct agp_memory *curr);
++extern struct agp_memory *iegd_cmn_alloc_by_type(
++      size_t pg_count, int type);
++extern int iegd_cmn_insert_entries(struct agp_memory *mem,
++      off_t pg_start, int type);
++extern int iegd_cmn_remove_entries(struct agp_memory *mem, off_t pg_start,
++      int type);
++extern int bridge_driver_init(bridge_driver_t **driver_hook,
++      unsigned short did, dispatch_table_t *list );
++
++#ifndef MSR_IA32_CR_PAT
++#define MSR_IA32_CR_PAT 0x0277
++#endif
++#ifndef _PAGE_PAT
++#define _PAGE_PAT 0x080
++#endif
++extern void agp_init_pat(void);
++extern int agp_use_pat (void);
++
++/**
++ * masking valid bit for page table entries before
++ * put it insert it to gtt table
++ */
++unsigned long AGP_MASK_MEMORY(iegd_cmn_mask_memory);
++int AGP_CREATE_GATT(iegd_alm_create_gatt_table);
++extern int iegd_cmn_configure(void);
++extern void AGP_ENABLE(iegd_cmn_agp_enable);
++
++/* Global DRM function prototype */
++extern int  intel_init(void);
++extern void intel_exit(void);
++extern int  drm_init(void);
++extern void drm_cleanup(void);
++
++/* Generic function to dispatch the information according to
++ * chipset id */
++static __inline void *dispatch_acquire(
++
++      unsigned short did,
++      dispatch_table_t *table_list) {
++
++      dispatch_table_t *curr = table_list;
++      while(curr && (curr->did != 0)) {
++              if(curr->did == did) {
++                      return curr->table;
++              }
++              curr++;
++      }
++
++      return NULL;
++}
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/igd_abs.h patch_script_temp/drivers/gpu/drm/iegd/include/igd_abs.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/igd_abs.h 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/include/igd_abs.h   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,136 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface.c
++ * $Revision: 1.15 $
++ *----------------------------------------------------------------------------
++ * <>
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ *
++ *----------------------------------------------------------------------------
++ * Functions:
++ *
++ *
++ *----------------------------------------------------------------------------
++ */
++
++#ifndef _KERNEL_ABS_LAYER
++#define _KERNEL_ABS_LAYER
++
++#include <linux/version.h>
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,21)
++#define IGD_FREE_MEM(a) agp_free_page_array(a)
++#else
++#define IGD_FREE_MEM(a) vfree((a)->memory)
++#endif
++
++#if LINUX_VERSION_CODE == KERNEL_VERSION(2,6,5)
++#define DRM_INIT_MODULE() drm_init()
++#define DRM_EXIT_MODULE() drm_cleanup()
++#define AGP_RET(a) ((a)>=0) ? 1 : 0
++#else
++#define DRM_INIT_MODULE() intel_init()
++#define DRM_EXIT_MODULE() intel_exit()
++#define AGP_RET(a) ((a)==0) ? 1 : 0
++#endif
++
++#if LINUX_VERSION_CODE<KERNEL_VERSION(2,6,10)
++#define IGD_PCI_SAVE_STATE(a,b) pci_save_state(a,b)
++#define IGD_PCI_RESTORE_STATE(a,b) pci_restore_state(a,b)
++#define pm_message_t u32
++#define IGD_IS_SUSPEND(state) ((state)==3)
++#else
++#define IGD_PCI_SAVE_STATE(a,b) pci_save_state(a)
++#define IGD_PCI_RESTORE_STATE(a,b) pci_restore_state(a)
++#define IGD_IS_SUSPEND(state) \
++      (((state.event)==PM_EVENT_SUSPEND) | ((state.event)==PM_EVENT_FREEZE))
++#endif
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,23)
++#define AGP_LOCK_PAGE(a)
++#define AGP_UNLOCK_PAGE(a)
++#else
++#define AGP_LOCK_PAGE(a) SetPageLocked((a))
++#define AGP_UNLOCK_PAGE(a) unlock_page((a))
++#endif
++
++#define MASK_PTE(a,b) (a)->driver->masks[(b)].mask
++#define AGP_MASK_ADDR(x) MASK_PTE((x),type)
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,25)
++#ifndef TRUE
++#define TRUE  1
++#endif
++#ifndef FALSE
++#define FALSE 0
++#endif
++#define SET_PAGES_UC(a,b)     set_pages_uc(a,b)
++#define SET_PAGES_WB(a,b)     set_pages_wb(a,b)
++#define GLOBAL_FLUSH_TLB()
++#ifndef SetPageLocked
++#define SetPageLocked(page) set_bit(PG_locked, &page->flags);
++#endif
++#else
++#define SET_PAGES_UC(a,b)     change_page_attr(a,b,PAGE_KERNEL_NOCACHE)
++#define SET_PAGES_WB(a,b)     change_page_attr(a,b,PAGE_KERNEL)
++#define GLOBAL_FLUSH_TLB()    global_flush_tlb()
++#endif
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,27)
++#define ON_EACH_CPU(a,b,c,d)  on_each_cpu(a,b,d)
++/* Note: drm_dev_to_irq appears 2.6.28, but some distros
++ * have pulled it into earlier versions of their kernel.
++ * That's why it's defined here.
++ */
++#define DRM_DEV_TO_IRQ(a)     drm_dev_to_irq(a)
++#else
++#define ON_EACH_CPU(a,b,c,d)  on_each_cpu(a,b,c,d)
++#define DRM_DEV_TO_IRQ(a)     (a->irq)
++#endif
++
++
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,31)
++#define AGP_MEM_TYPE struct page*
++#define CONVERT_PAGE_TO_GART(a)  phys_to_gart(page_to_phys(a));
++#define AGP_MEMORY_MEMBER pages
++#define PAGE_ADDRESS(a) a
++#else
++#define AGP_MEM_TYPE void*
++#define CONVERT_PAGE_TO_GART(a)  a 
++#define AGP_MEMORY_MEMBER memory
++#define PAGE_ADDRESS(a)          page_address(a)
++#endif
++
++
++/*
++ * Kernel interface abstraction. This macro will
++ * point to the proper definition for that particular
++ * kernel
++ */
++#if LINUX_VERSION_CODE >= KERNEL_VERSION(2,6,31)
++#define AGP_MASK_MEMORY(f)   _MASK_MEMORY_PAGE(f)
++#else
++#define AGP_MASK_MEMORY(f)   _MASK_MEMORY(f)
++#endif
++#define AGP_CREATE_GATT(f)   _CREATE_GATT_TABLE(f)
++#define AGP_FREE_GATT(f)     _FREE_GATT_TABLE(f)
++#define AGP_ALLOC_PAGE(f)    _ALLOC_PAGE_AGP(f)
++#define AGP_ENABLE(f)        _ENABLE_AGP(f)
++#define AGP_TYPE_TO_MASK_TYPE(f) _TYPE_TO_MASK_TYPE(f)
++
++#define AGP_MASK_GTT()   _mask_gtt()
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/igd_gart.h patch_script_temp/drivers/gpu/drm/iegd/include/igd_gart.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/igd_gart.h        1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/include/igd_gart.h  2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,81 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: igd_gart.h
++ * $Revision: 1.10 $
++ *----------------------------------------------------------------------------
++ * <>
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ *
++ *----------------------------------------------------------------------------
++ * Functions:
++ *
++ *
++ *----------------------------------------------------------------------------
++ */
++
++#ifndef _INIT_GART_DISPATCH
++#define _INIT_GART_DISPATCH
++
++#include <linux/pci.h>
++#include <linux/agp_backend.h>
++#include "agp.h"
++
++typedef struct agp_bridge_driver bridge_driver_t;
++typedef struct agp_bridge_data bridge_data_t;
++
++/* Dispatch table that contained information about
++ * specific chipset */
++typedef struct _gart_dispatch {
++      unsigned short vendor_id;
++      unsigned short bridge_id;    /* Bridge device id */
++      unsigned short device_id;    /* chipset id */
++      char *name;                  /* Name for the chipset */
++      unsigned short dev_flag;
++      struct pci_driver *old_gart; /* old gart info */
++      struct pci_dev *bridge_pdev; /* Bridge device info */
++      bridge_data_t *bridge_info;  /* bridge information for gart */
++}gart_dispatch_t;
++
++/* Structure that keep the private data for chipset */
++typedef struct _dev_private_data {
++      struct pci_dev *pdev;
++      volatile u8 __iomem *registers;
++      volatile u32 __iomem *gtt;
++      union {
++              int num_dcache_entries;
++              int gtt_entries;
++      };
++      u32 pm_save[16]; /* PCI config saved here on suspend/resume. */
++                       /* Required for older kernel versions. */
++      int split_gtt;
++      volatile u32 __iomem *upper_gtt;
++}dev_private_data_t;
++
++/* Dispatch table for function hook */
++typedef struct _dispatch_table {
++      unsigned short did;
++      void *table;
++}dispatch_table_t;
++
++/* Table contained function pointer for specific chipset */
++typedef struct _driver_func_table {
++      bridge_driver_t driver_func; /* Contained actual function */
++      void (*config_private)(void);    /* config private */
++}driver_func_table_t;
++
++
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/intelpci.h patch_script_temp/drivers/gpu/drm/iegd/include/intelpci.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/intelpci.h        1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/include/intelpci.h  2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,178 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: intelpci.h
++ * $Revision: 1.16 $
++ *----------------------------------------------------------------------------
++ * <>
++ * Copyright Â© 2008, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ *
++ *----------------------------------------------------------------------------
++ * Functions:
++ *
++ *
++ *----------------------------------------------------------------------------
++ */
++
++#define PCI_VENDOR_ID_INTEL             0x8086
++
++
++/* Start: Whitney core specific */
++#define PCI_DEVICE_ID_BRIDGE_810        0x7120
++#define PCI_DEVICE_ID_810               0x7121
++
++#define PCI_DEVICE_ID_BRIDGE_810DC      0x7122
++#define PCI_DEVICE_ID_810DC             0x7123
++
++#define PCI_DEVICE_ID_BRIDGE_810E       0x7124
++#define PCI_DEVICE_ID_810E              0x7125
++
++#define PCI_DEVICE_ID_BRIDGE_815        0x1130
++#define PCI_DEVICE_ID_815               0x1132
++
++
++/* Start: Almador core specific */
++#define PCI_DEVICE_ID_BRIDGE_830M       0x3575
++#define PCI_DEVICE_ID_830M              0x3577
++#define PCI_DEVICE_ID_AGP_830M          0x3576
++
++#define PCI_DEVICE_ID_BRIDGE_835        0x3579
++#define PCI_DEVICE_ID_835               0x357b
++#define PCI_DEVICE_ID_AGP_835           0x357a
++
++#define PCI_DEVICE_ID_BRIDGE_845G       0x2560
++#define PCI_DEVICE_ID_845G              0x2562
++#define PCI_DEVICE_ID_AGP_845G          0x0000
++
++#define PCI_DEVICE_ID_BRIDGE_855        0x3580  /* Montara-G */
++#define PCI_DEVICE_ID_MEM_855           0x3584
++#define PCI_DEVICE_ID_855               0x3582
++#define PCI_DEVICE_ID_AGP_855           0x0000
++
++#define PCI_DEVICE_ID_BRIDGE_865G       0x2570
++#define PCI_DEVICE_ID_865G              0x2572
++#define PCI_DEVICE_ID_AGP_865G          0x0000
++
++
++/* Start: Napa core specific */
++/* Grantsdale - 915G/915GV */
++#define PCI_DEVICE_ID_BRIDGE_915GD      0x2580
++#define PCI_DEVICE_ID_PEG_915GD         0x2581
++#define PCI_DEVICE_ID_915GD             0x2582
++/* Grantsdale - 910GL*/
++#define PCI_DEVICE_ID_BRIDGE_910GL      0x258C
++#define PCI_DEVICE_ID_PEG_910GL         PCI_DEVICE_ID_PEG_915GD
++#define PCI_DEVICE_ID_910GL             PCI_DEVICE_ID_915GD
++/* Alviso - 915GM/GMS/910GML*/
++#define PCI_DEVICE_ID_BRIDGE_915AL      0x2590
++#define PCI_DEVICE_ID_PEG_915AL         0x2591
++#define PCI_DEVICE_ID_915AL             0x2592
++
++/* Lakeport - 945G */
++#define PCI_DEVICE_ID_BRIDGE_945G       0x2770
++#define PCI_DEVICE_ID_PEG_945G          0x2771
++#define PCI_DEVICE_ID_945G              0x2772
++
++/* Calistoga - 945GM */
++#define PCI_DEVICE_ID_BRIDGE_945GM      0x27A0
++#define PCI_DEVICE_ID_PEG_945GM         0x27A1
++#define PCI_DEVICE_ID_945GM             0x27A2
++
++/* Calistoga Westbriar - 945GME/GSE */
++#define PCI_DEVICE_ID_BRIDGE_945GME     0x27AC
++#define PCI_DEVICE_ID_PEG_945GME        0x27AD
++#define PCI_DEVICE_ID_945GME            0x27AE
++
++/* Bearlake B - Q35 */
++#define PCI_DEVICE_ID_BRIDGE_Q35        0x29C0
++#define PCI_DEVICE_ID_PEG_Q35           0x29C1
++#define PCI_DEVICE_ID_Q35               0x29C2
++
++/* Bearlake B - Q35 */
++#define PCI_DEVICE_ID_BRIDGE_Q35A2      0x29B0
++#define PCI_DEVICE_ID_PEG_Q35A2         0x29B1
++#define PCI_DEVICE_ID_Q35A2             0x29B2
++
++/* Start: Gen4 core specific*/
++/* Broadwater - Unlocked - 965G */
++#define PCI_DEVICE_ID_BRIDGE_965G       0x2980
++#define PCI_DEVICE_ID_PEG_965G          0x2981
++#define PCI_DEVICE_ID_965G              0x2982
++
++/* Broadwater - Value - 945GZ */
++#define PCI_DEVICE_ID_BRIDGE_946GZ      0x2970
++#define PCI_DEVICE_ID_PEG_946GZ         0x2971
++#define PCI_DEVICE_ID_946GZ             0x2972
++
++/* Broadwater - Consumer - G965 */
++#define PCI_DEVICE_ID_BRIDGE_G965       0x29A0
++#define PCI_DEVICE_ID_PEG_G965          0x29A1
++#define PCI_DEVICE_ID_G965              0x29A2
++
++/* Broadwater - Corporate - Q965/Q963 */
++#define PCI_DEVICE_ID_BRIDGE_Q965       0x2990
++#define PCI_DEVICE_ID_PEG_Q965          0x2991
++#define PCI_DEVICE_ID_Q965              0x2992
++
++/* Crestline - Generic GM965 */
++#define PCI_DEVICE_ID_BRIDGE_GM965            0x2A00
++#define PCI_DEVICE_ID_PEG_GM965                       0x2A01
++#define PCI_DEVICE_ID_GM965                       0x2A02
++
++/* Crestline Westbriar GME965 */
++#define PCI_DEVICE_ID_BRIDGE_GME965           0x2A10
++#define PCI_DEVICE_ID_PEG_GME965              0x2A11
++#define PCI_DEVICE_ID_GME965              0x2A12
++
++#if LINUX_VERSION_CODE > KERNEL_VERSION(2,6,5)
++/* Poulsbo */
++#define PCI_DEVICE_ID_BRIDGE_PLB              0x8100
++#define PCI_DEVICE_ID_PEG_PLB                 0x8101
++#define PCI_DEVICE_ID_PLB                             0x8108
++#endif
++
++/* Cantiga GM45 */
++#define PCI_DEVICE_ID_BRIDGE_GM45       0x2A40
++#define PCI_DEVICE_ID_PEG_GM45          0x2A41
++#define PCI_DEVICE_ID_GM45              0x2A42
++
++#define PCI_DEVICE_ID_BRIDGE_ELK      0x2E00
++#define PCI_DEVICE_ID_PEG_ELK           0x2E01
++#define PCI_DEVICE_ID_ELK               0x2E02
++
++#define PCI_DEVICE_ID_BRIDGE_Q45        0x2E10
++#define PCI_DEVICE_ID_PEG_Q45           0x2E11
++#define PCI_DEVICE_ID_Q45               0x2E12
++
++#define PCI_DEVICE_ID_BRIDGE_G45        0x2E20
++#define PCI_DEVICE_ID_PEG_G45           0x2E21
++#define PCI_DEVICE_ID_G45               0x2E22
++
++#define PCI_DEVICE_ID_BRIDGE_G41        0x2E30
++#define PCI_DEVICE_ID_PEG_G41           0x2E31
++#define PCI_DEVICE_ID_G41               0x2E32
++
++#define I915_GMADDR   0x18
++#define I915_MMADDR   0x10
++#define I915_PTEADDR  0x1C
++#define I915_GMCH_GMS_STOLEN_48M      (0x6 << 4)
++#define I915_GMCH_GMS_STOLEN_64M      (0x7 << 4)
++
++/* intel Q35 register */
++#define IQ35_BASE_STOLEN 0x5c
++#define IQ35_GTT_MEM_SIZE 0x300
++#define IQ35_GGMS_1MB 0x100
++#define IQ35_GGMS_2MB 0x200
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/interface_abs.h patch_script_temp/drivers/gpu/drm/iegd/include/interface_abs.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/drivers/gpu/drm/iegd/include/interface_abs.h   1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/drivers/gpu/drm/iegd/include/interface_abs.h     2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1,48 @@
++/*  -*- pse-c -*-
++ *----------------------------------------------------------------------------
++ * Filename: iegd_interface.c
++ * $Revision: 1.4 $
++ *----------------------------------------------------------------------------
++ * <>
++ * Copyright Â© 2006, Intel Corporation.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 
++ * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
++ *
++ *----------------------------------------------------------------------------
++ * Functions:
++ *
++ *
++ *----------------------------------------------------------------------------
++ */
++
++#ifndef _AGP_INTERFACE_ABS_LAYER
++#define _AGP_INTERFACE_ABS_LAYER
++
++#define AGP_BRIDGE_VAR bridge
++
++#define _MASK_MEMORY_PAGE(f) f( struct agp_bridge_data *bridge, \
++              struct page* addr, int type)
++
++#define _MASK_MEMORY(f) f( struct agp_bridge_data *bridge, \
++                unsigned long addr, int type)
++
++#define _CREATE_GATT_TABLE(f) f(struct agp_bridge_data *bridge)
++#define _FREE_GATT_TABLE(f)   f(struct agp_bridge_data *bridge)
++#define _ALLOC_PAGE_AGP(f)    f(struct agp_bridge_data *bridge)
++#define _ENABLE_AGP(f)        f(struct agp_bridge_data *bridge, u32 mode)
++#define _TYPE_TO_MASK_TYPE(f) f(struct agp_bridge_data *bridge, int x)
++
++#define _mask_gtt() agp_bridge->driver->mask_memory( \
++              agp_bridge, mem->pages[i], mem->type)
++#endif
+diff -uNr vanilla.2.6.31.rc6-67.1.moblin2-ivi/include/linux/config.h patch_script_temp/include/linux/config.h
+--- vanilla.2.6.31.rc6-67.1.moblin2-ivi/include/linux/config.h 1969-12-31 17:00:00.000000000 -0700
++++ patch_script_temp/include/linux/config.h   2009-10-06 10:30:05.000000000 -0700
+@@ -0,0 +1 @@
++ 
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-samsung.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-samsung.patch
new file mode 100644 (file)
index 0000000..88c9788
--- /dev/null
@@ -0,0 +1,206 @@
+
+
+From: Greg Kroah-Hartman <gregkh@suse.de>
+Subject: Samsung backlight driver
+
+This driver implements backlight controls for Samsung laptops that currently do not have ACPI support for this control.
+
+It has been tested on the N130 laptop and properly works there.
+
+Info for the NC10 was provided by Soeren Sonnenburg <bugreports@nn7.de> Info for the NP-Q45 from Jie Huchet <jeremie@lamah.info>
+
+Many thanks to Dmitry Torokhov <dmitry.torokhov@gmail.com> for cleanups and other suggestions on how to make the driver simpler.
+
+Cc: Soeren Sonnenburg <bugreports@nn7.de>
+Cc: Jie Huchet <jeremie@lamah.info>
+Cc: Dmitry Torokhov <dmitry.torokhov@gmail.com>
+Signed-off-by: Greg Kroah-Hartman <gregkh@suse.de>
+
+---
+ drivers/platform/x86/Kconfig             |   12 ++
+ drivers/platform/x86/Makefile            |    1 
+ drivers/platform/x86/samsung-backlight.c |  157
++++++++++++++++++++++++++++++++ 3 files changed, 170 insertions(+)
+diff -purN vanilla-2.6.31-rc6/drivers/platform/x86/Kconfig linux-2.6.31-rc6/drivers/platform/x86/Kconfig
+--- vanilla-2.6.31-rc6/drivers/platform/x86/Kconfig    2009-08-17 20:55:37.000000000 +0000
++++ linux-2.6.31-rc6/drivers/platform/x86/Kconfig      2009-08-17 20:58:25.000000000 +0000
+@@ -425,4 +425,16 @@ config ACPI_TOSHIBA
+         If you have a legacy free Toshiba laptop (such as the Libretto L1
+         series), say Y.
++
++config SAMSUNG_BACKLIGHT
++      tristate "Samsung Backlight driver"
++      depends on BACKLIGHT_CLASS_DEVICE
++      depends on DMI
++      ---help---
++        This driver adds support to control the backlight on a number of
++        Samsung laptops, like the N130.
++
++        It will only be loaded on laptops that properly need it, so it is
++        safe to say Y here.
++
+ endif # X86_PLATFORM_DEVICES
+diff -purN vanilla-2.6.31-rc6/drivers/platform/x86/Makefile linux-2.6.31-rc6/drivers/platform/x86/Makefile
+--- vanilla-2.6.31-rc6/drivers/platform/x86/Makefile   2009-08-17 20:55:37.000000000 +0000
++++ linux-2.6.31-rc6/drivers/platform/x86/Makefile     2009-08-17 20:58:44.000000000 +0000
+@@ -20,3 +20,4 @@ obj-$(CONFIG_INTEL_MENLOW)   += intel_menl
+ obj-$(CONFIG_ACPI_WMI)                += wmi.o
+ obj-$(CONFIG_ACPI_ASUS)               += asus_acpi.o
+ obj-$(CONFIG_ACPI_TOSHIBA)    += toshiba_acpi.o
++obj-$(CONFIG_SAMSUNG_BACKLIGHT) += samsung-backlight.o
+diff -purN vanilla-2.6.31-rc6/drivers/platform/x86/samsung-backlight.c linux-2.6.31-rc6/drivers/platform/x86/samsung-backlight.c
+--- vanilla-2.6.31-rc6/drivers/platform/x86/samsung-backlight.c        1970-01-01 00:00:00.000000000 +0000
++++ linux-2.6.31-rc6/drivers/platform/x86/samsung-backlight.c  2009-08-17 21:00:10.000000000 +0000
+@@ -0,0 +1,151 @@
++/*
++ * Samsung N130 and NC10 Laptop Backlight driver
++ *
++ * Copyright (C) 2009 Greg Kroah-Hartman (gregkh@suse.de)
++ * Copyright (C) 2009 Novell Inc.
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms of the GNU General Public License version 2 as published by
++ * the Free Software Foundation.
++ */
++
++#include <linux/kernel.h>
++#include <linux/init.h>
++#include <linux/module.h>
++#include <linux/pci.h>
++#include <linux/backlight.h>
++#include <linux/fb.h>
++#include <linux/dmi.h>
++
++#define MAX_BRIGHT    0xff
++#define OFFSET                0xf4
++
++static int offset = OFFSET;
++module_param(offset, int, S_IRUGO | S_IWUSR); 
++MODULE_PARM_DESC(offset, "The offset into the PCI device for the brightness control"); 
++static struct pci_dev *pci_device;
++static struct backlight_device *backlight_device;
++
++static u8 read_brightness(void)
++{
++      u8 brightness;
++
++      pci_read_config_byte(pci_device, offset, &brightness);
++      return brightness;
++}
++
++static void set_brightness(u8 brightness) {
++      pci_write_config_byte(pci_device, offset, brightness); }
++
++static int get_brightness(struct backlight_device *bd) {
++      return bd->props.brightness;
++}
++
++static int update_status(struct backlight_device *bd) {
++      set_brightness(bd->props.brightness);
++      return 0;
++}
++
++static struct backlight_ops backlight_ops = {
++      .get_brightness = get_brightness,
++      .update_status  = update_status,
++};
++
++static int __init dmi_check_cb(const struct dmi_system_id *id) {
++      printk(KERN_INFO KBUILD_MODNAME ": found laptop model '%s'\n",
++              id->ident);
++      return 0;
++}
++
++static struct dmi_system_id __initdata samsung_dmi_table[] = {
++      {
++              .ident = "N120",
++              .matches = {
++                      DMI_MATCH(DMI_SYS_VENDOR, "SAMSUNG ELECTRONICS CO., LTD."),
++                      DMI_MATCH(DMI_PRODUCT_NAME, "N120"),
++                      DMI_MATCH(DMI_BOARD_NAME, "N120"),
++              },
++              .callback = dmi_check_cb,
++      },
++      {
++              .ident = "N130",
++              .matches = {
++                      DMI_MATCH(DMI_SYS_VENDOR, "SAMSUNG ELECTRONICS CO., LTD."),
++                      DMI_MATCH(DMI_PRODUCT_NAME, "N130"),
++                      DMI_MATCH(DMI_BOARD_NAME, "N130"),
++              },
++              .callback = dmi_check_cb,
++      },
++      {
++              .ident = "NC10",
++              .matches = {
++                      DMI_MATCH(DMI_SYS_VENDOR, "SAMSUNG ELECTRONICS CO., LTD."),
++                      DMI_MATCH(DMI_PRODUCT_NAME, "NC10"),
++                      DMI_MATCH(DMI_BOARD_NAME, "NC10"),
++              },
++              .callback = dmi_check_cb,
++      },
++      {
++              .ident = "NP-Q45",
++              .matches = {
++                      DMI_MATCH(DMI_SYS_VENDOR, "SAMSUNG ELECTRONICS CO., LTD."),
++                      DMI_MATCH(DMI_PRODUCT_NAME, "SQ45S70S"),
++                      DMI_MATCH(DMI_BOARD_NAME, "SQ45S70S"),
++              },
++              .callback = dmi_check_cb,
++      },
++      { },
++};
++
++static int __init samsung_init(void)
++{
++      if (!dmi_check_system(samsung_dmi_table))
++              return -ENODEV;
++
++      /*
++       * The Samsung N120, N130, and NC10 use pci device id 0x27ae, while the
++       * NP-Q45 uses 0x2a02.  Odds are we might need to add more to the
++       * list over time...
++       */
++      pci_device = pci_get_device(PCI_VENDOR_ID_INTEL, 0x27ae, NULL);
++      if (!pci_device) {
++              pci_device = pci_get_device(PCI_VENDOR_ID_INTEL, 0x2a02, NULL);
++              if (!pci_device)
++                      return -ENODEV;
++      }
++
++      /* create a backlight device to talk to this one */
++      backlight_device = backlight_device_register("samsung",
++                                                   &pci_device->dev,
++                                                   NULL, &backlight_ops);
++      if (IS_ERR(backlight_device)) {
++              pci_dev_put(pci_device);
++              return PTR_ERR(backlight_device);
++      }
++
++      backlight_device->props.max_brightness = MAX_BRIGHT;
++      backlight_device->props.brightness = read_brightness();
++      backlight_device->props.power = FB_BLANK_UNBLANK;
++      backlight_update_status(backlight_device);
++
++      return 0;
++}
++
++static void __exit samsung_exit(void)
++{
++      backlight_device_unregister(backlight_device);
++
++      /* we are done with the PCI device, put it back */
++      pci_dev_put(pci_device);
++}
++
++module_init(samsung_init);
++module_exit(samsung_exit);
++
++MODULE_AUTHOR("Greg Kroah-Hartman <gregkh@suse.de>"); 
++MODULE_DESCRIPTION("Samsung Backlight driver"); 
++MODULE_LICENSE("GPL"); 
++MODULE_ALIAS("dmi:*:svnSAMSUNGELECTRONICSCO.,LTD.:pnN120:*:rnN120:*");
++MODULE_ALIAS("dmi:*:svnSAMSUNGELECTRONICSCO.,LTD.:pnN130:*:rnN130:*");
++MODULE_ALIAS("dmi:*:svnSAMSUNGELECTRONICSCO.,LTD.:pnNC10:*:rnNC10:*");
++MODULE_ALIAS("dmi:*:svnSAMSUNGELECTRONICSCO.,LTD.:pnSQ45S70S:*:rnSQ45S70S:*");
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-silence-wacom.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.31-silence-wacom.patch
new file mode 100644 (file)
index 0000000..635709e
--- /dev/null
@@ -0,0 +1,14 @@
+KERN_ERR is not appropriate for a printk level of a successful operation
+
+
+--- linux-2.6.30/drivers/hid/hid-wacom.c~      2009-09-04 10:37:20.000000000 -0700
++++ linux-2.6.30/drivers/hid/hid-wacom.c       2009-09-04 10:37:20.000000000 -0700
+@@ -244,7 +244,7 @@
+       ret = hid_register_driver(&wacom_driver);
+       if (ret)
+               printk(KERN_ERR "can't register wacom driver\n");
+-      printk(KERN_ERR "wacom driver registered\n");
++      printk(KERN_INFO "wacom driver registered\n");
+       return ret;
+ }
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-acpi-cstate-fixup.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-acpi-cstate-fixup.patch
new file mode 100644 (file)
index 0000000..6a1204d
--- /dev/null
@@ -0,0 +1,173 @@
+From edeae90d635501a632efa0c7fe0667aa2cbe29be Mon Sep 17 00:00:00 2001
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Mon, 28 Sep 2009 15:14:04 +0200
+Subject: [PATCH] acpi: Provide a set of tables to check the BIOS tables for correctness
+
+Today, the BIOS provides us with latency information for each C state.
+Unfortunately this information is sometimes put into the BIOS by
+apprentice BIOS programmers in a hurry, and as a result, it occasionally
+contains utter garbage.
+
+This patch adds a table based verification; if the CPU is known in the table,
+the values the BIOS provides to us are corrected for the apprentice-factor
+so that the CPUIDLE code can rely on the latency and break-even values
+to be reasonably sane.
+
+Signed-off-by: Arjan van de Ven <arjan@linux.intel.com>
+---
+ drivers/acpi/Makefile                |    2 +-
+ drivers/acpi/processor_idle.c        |    3 +
+ drivers/acpi/processor_mwait_table.c |  110 ++++++++++++++++++++++++++++++++++
+ include/acpi/processor.h             |    3 +
+ 4 files changed, 117 insertions(+), 1 deletions(-)
+ create mode 100644 drivers/acpi/processor_mwait_table.c
+
+diff --git a/drivers/acpi/Makefile b/drivers/acpi/Makefile
+index 82cd49d..ab56b28 100644
+--- a/drivers/acpi/Makefile
++++ b/drivers/acpi/Makefile
+@@ -60,5 +60,5 @@ obj-$(CONFIG_ACPI_POWER_METER)       += power_meter.o
+ # processor has its own "processor." module_param namespace
+ processor-y                   := processor_core.o processor_throttling.o
+-processor-y                   += processor_idle.o processor_thermal.o
++processor-y                   += processor_idle.o processor_thermal.o processor_mwait_table.o
+ processor-$(CONFIG_CPU_FREQ)  += processor_perflib.o
+diff --git a/drivers/acpi/processor_idle.c b/drivers/acpi/processor_idle.c
+index cc61a62..db444a0 100644
+--- a/drivers/acpi/processor_idle.c
++++ b/drivers/acpi/processor_idle.c
+@@ -1088,6 +1088,9 @@ static int acpi_processor_setup_cpuidle(struct acpi_processor *pr)
+               state->target_residency = cx->latency * latency_factor;
+               state->power_usage = cx->power;
++              if (cx->entry_method == ACPI_CSTATE_FFH)
++                      acpi_verify_mwait_data(state, cx);
++
+               state->flags = 0;
+               switch (cx->type) {
+                       case ACPI_STATE_C1:
+diff --git a/drivers/acpi/processor_mwait_table.c b/drivers/acpi/processor_mwait_table.c
+new file mode 100644
+index 0000000..f29c28c
+--- /dev/null
++++ b/drivers/acpi/processor_mwait_table.c
+@@ -0,0 +1,102 @@
++/*
++ * processor_mwait_table.c: BIOS table verification/correction
++ *
++ * (C) Copyright 2009 Intel Corporation
++ * Authors:
++ *    Arjan van de Ven <arjan@linux.intel.com>
++ *
++ * This program is free software; you can redistribute it and/or
++ * modify it under the terms of the GNU General Public License
++ * as published by the Free Software Foundation; version 2
++ * of the License.
++ */
++
++#include <asm/processor.h>
++#include <linux/acpi.h>
++#include <acpi/processor.h>
++#include <linux/cpuidle.h>
++
++
++#define ATLEAST 1
++#define ATMOST  2
++#define EXACTLY 3
++
++#define MAX_ENTRIES 12
++
++struct mwait_entry {
++      unsigned int            mwait_value;
++      unsigned long           exit_latency;
++      unsigned long           break_even_point;
++      int                     compare_method;
++};
++
++struct cpu_entry {
++      int                     vendor;
++      int                     family;
++      int                     model;
++
++      struct mwait_entry      entries[MAX_ENTRIES];   
++};
++
++static struct cpu_entry mwait_entries[] =
++{
++  /* Intel "Atom" CPUs  */
++  {.vendor = X86_VENDOR_INTEL, .family = 6, . model = 28,
++      .entries = { 
++                      {0x00,   1,    1, ATLEAST}, 
++                      {0x10,   2,   20, ATLEAST}, 
++                      {0x30,  57,  300, ATLEAST}, 
++                      {0x50,  64, 4000, ATLEAST}, 
++                 } 
++  },
++
++
++};
++
++
++static unsigned long 
++compare_and_set(unsigned long original, unsigned long new, int compare)
++{
++      if (compare == EXACTLY)
++              return new;
++      if (compare == ATLEAST && new > original)
++              return new;
++      if (compare == ATMOST && new < original)
++              return new;
++      return original;
++}
++
++
++void acpi_verify_mwait_data(struct cpuidle_state *state,
++                          struct acpi_processor_cx *cx)
++{
++#if defined(__i386__) || defined(__x86_64__)
++      int i;
++
++      struct cpuinfo_x86 *cpudata = &boot_cpu_data;
++      
++      
++      for (i = 0; i < ARRAY_SIZE(mwait_entries); i++) {
++              int j;
++              if (mwait_entries[i].vendor != cpudata->x86_vendor)
++                      continue;
++              if (mwait_entries[i].family != cpudata->x86)
++                      continue;
++              if (mwait_entries[i].model != cpudata->x86_model)
++                      continue;
++              for (j = 0; j < ARRAY_SIZE(mwait_entries[i].entries); j++) {
++                      if (!mwait_entries[i].entries[j].compare_method)
++                              continue;
++                      if (mwait_entries[i].entries[j].mwait_value != cx->address)
++                              continue;
++                      state->exit_latency = compare_and_set(state->exit_latency,
++                              mwait_entries[i].entries[j].exit_latency,
++                              mwait_entries[i].entries[j].compare_method);
++                      state->target_residency = compare_and_set(state->target_residency,
++                              mwait_entries[i].entries[j].break_even_point,
++                              mwait_entries[i].entries[j].compare_method);
++                      break;  
++              }
++      }
++#endif
++}
+diff --git a/include/acpi/processor.h b/include/acpi/processor.h
+index 740ac3a..175e4d1 100644
+--- a/include/acpi/processor.h
++++ b/include/acpi/processor.h
+@@ -352,5 +352,8 @@ static inline void acpi_thermal_cpufreq_exit(void)
+       return;
+ }
+ #endif
++extern void acpi_verify_mwait_data(struct cpuidle_state *state,
++                            struct acpi_processor_cx *cx);
++
+ #endif
+-- 
+1.6.2.5
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-cpuidle.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-cpuidle.patch
new file mode 100644 (file)
index 0000000..ef930b7
--- /dev/null
@@ -0,0 +1,407 @@
+From f890417fc5dc4450e1dab69d7a870d6e706825a5 Mon Sep 17 00:00:00 2001
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Sun, 20 Sep 2009 08:45:07 +0200
+Subject: [PATCH] cpuidle: Fix the menu governor to boost IO performance
+
+Fix the menu idle governor which balances power savings, energy efficiency
+and performance impact.
+
+The reason for a reworked governor is that there have been serious
+performance issues reported with the existing code on Nehalem server
+systems.
+
+To show this I'm sure Andrew wants to see benchmark results:
+(benchmark is "fio", "no cstates" is using "idle=poll")
+
+               no cstates      current linux   new algorithm
+1 disk         107 Mb/s        85 Mb/s         105 Mb/s
+2 disks                215 Mb/s        123 Mb/s        209 Mb/s
+12 disks       590 Mb/s        320 Mb/s        585 Mb/s
+
+In various power benchmark measurements, no degredation was found by our
+measurement&diagnostics team.  Obviously a small percentage more power
+was used in the "fio" benchmark, due to the much higher performance.
+
+While it would be a novel idea to describe the new algorithm in this
+commit message, I cheaped out and described it in comments in the code
+instead.
+
+[changes in v2: spelling fixes from akpm, review feedback,
+folded menu-tng into menu.c
+ changes in v3: use this_rq() as per akpm suggestion]
+
+Signed-off-by: Arjan van de Ven <arjan@linux.intel.com>
+Cc: Venkatesh Pallipadi <venkatesh.pallipadi@intel.com>
+Cc: Len Brown <lenb@kernel.org>
+Acked-by: Ingo Molnar <mingo@elte.hu>
+Cc: Peter Zijlstra <a.p.zijlstra@chello.nl>
+Cc: Yanmin Zhang <yanmin_zhang@linux.intel.com>
+Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
+---
+ drivers/cpuidle/governors/menu.c |  251 ++++++++++++++++++++++++++++++++------
+ include/linux/sched.h            |    4 +
+ kernel/sched.c                   |   13 ++
+ 3 files changed, 229 insertions(+), 39 deletions(-)
+
+diff --git a/drivers/cpuidle/governors/menu.c b/drivers/cpuidle/governors/menu.c
+index f1df59f..9f3d775 100644
+--- a/drivers/cpuidle/governors/menu.c
++++ b/drivers/cpuidle/governors/menu.c
+@@ -2,8 +2,12 @@
+  * menu.c - the menu idle governor
+  *
+  * Copyright (C) 2006-2007 Adam Belay <abelay@novell.com>
++ * Copyright (C) 2009 Intel Corporation
++ * Author:
++ *        Arjan van de Ven <arjan@linux.intel.com>
+  *
+- * This code is licenced under the GPL.
++ * This code is licenced under the GPL version 2 as described
++ * in the COPYING file that acompanies the Linux Kernel.
+  */
+ #include <linux/kernel.h>
+@@ -13,20 +17,153 @@
+ #include <linux/ktime.h>
+ #include <linux/hrtimer.h>
+ #include <linux/tick.h>
++#include <linux/sched.h>
+-#define BREAK_FUZZ    4       /* 4 us */
+-#define PRED_HISTORY_PCT      50
++#define BUCKETS 12
++#define RESOLUTION 1024
++#define DECAY 4
++#define MAX_INTERESTING 50000
++
++/*
++ * Concepts and ideas behind the menu governor
++ *
++ * For the menu governor, there are 3 decision factors for picking a C
++ * state:
++ * 1) Energy break even point
++ * 2) Performance impact
++ * 3) Latency tolerance (from pmqos infrastructure)
++ * These these three factors are treated independently.
++ *
++ * Energy break even point
++ * -----------------------
++ * C state entry and exit have an energy cost, and a certain amount of time in
++ * the  C state is required to actually break even on this cost. CPUIDLE
++ * provides us this duration in the "target_residency" field. So all that we
++ * need is a good prediction of how long we'll be idle. Like the traditional
++ * menu governor, we start with the actual known "next timer event" time.
++ *
++ * Since there are other source of wakeups (interrupts for example) than
++ * the next timer event, this estimation is rather optimistic. To get a
++ * more realistic estimate, a correction factor is applied to the estimate,
++ * that is based on historic behavior. For example, if in the past the actual
++ * duration always was 50% of the next timer tick, the correction factor will
++ * be 0.5.
++ *
++ * menu uses a running average for this correction factor, however it uses a
++ * set of factors, not just a single factor. This stems from the realization
++ * that the ratio is dependent on the order of magnitude of the expected
++ * duration; if we expect 500 milliseconds of idle time the likelihood of
++ * getting an interrupt very early is much higher than if we expect 50 micro
++ * seconds of idle time. A second independent factor that has big impact on
++ * the actual factor is if there is (disk) IO outstanding or not.
++ * (as a special twist, we consider every sleep longer than 50 milliseconds
++ * as perfect; there are no power gains for sleeping longer than this)
++ *
++ * For these two reasons we keep an array of 12 independent factors, that gets
++ * indexed based on the magnitude of the expected duration as well as the
++ * "is IO outstanding" property.
++ *
++ * Limiting Performance Impact
++ * ---------------------------
++ * C states, especially those with large exit latencies, can have a real
++ * noticable impact on workloads, which is not acceptable for most sysadmins,
++ * and in addition, less performance has a power price of its own.
++ *
++ * As a general rule of thumb, menu assumes that the following heuristic
++ * holds:
++ *     The busier the system, the less impact of C states is acceptable
++ *
++ * This rule-of-thumb is implemented using a performance-multiplier:
++ * If the exit latency times the performance multiplier is longer than
++ * the predicted duration, the C state is not considered a candidate
++ * for selection due to a too high performance impact. So the higher
++ * this multiplier is, the longer we need to be idle to pick a deep C
++ * state, and thus the less likely a busy CPU will hit such a deep
++ * C state.
++ *
++ * Two factors are used in determing this multiplier:
++ * a value of 10 is added for each point of "per cpu load average" we have.
++ * a value of 5 points is added for each process that is waiting for
++ * IO on this CPU.
++ * (these values are experimentally determined)
++ *
++ * The load average factor gives a longer term (few seconds) input to the
++ * decision, while the iowait value gives a cpu local instantanious input.
++ * The iowait factor may look low, but realize that this is also already
++ * represented in the system load average.
++ *
++ */
+ struct menu_device {
+       int             last_state_idx;
+       unsigned int    expected_us;
+-      unsigned int    predicted_us;
+-      unsigned int    current_predicted_us;
+-      unsigned int    last_measured_us;
+-      unsigned int    elapsed_us;
++      u64             predicted_us;
++      unsigned int    measured_us;
++      unsigned int    exit_us;
++      unsigned int    bucket;
++      u64             correction_factor[BUCKETS];
+ };
++
++#define LOAD_INT(x) ((x) >> FSHIFT)
++#define LOAD_FRAC(x) LOAD_INT(((x) & (FIXED_1-1)) * 100)
++
++static int get_loadavg(void)
++{
++      unsigned long this = this_cpu_load();
++
++
++      return LOAD_INT(this) * 10 + LOAD_FRAC(this) / 10;
++}
++
++static inline int which_bucket(unsigned int duration)
++{
++      int bucket = 0;
++
++      /*
++       * We keep two groups of stats; one with no
++       * IO pending, one without.
++       * This allows us to calculate
++       * E(duration)|iowait
++       */
++      if (nr_iowait_cpu())
++              bucket = BUCKETS/2;
++
++      if (duration < 10)
++              return bucket;
++      if (duration < 100)
++              return bucket + 1;
++      if (duration < 1000)
++              return bucket + 2;
++      if (duration < 10000)
++              return bucket + 3;
++      if (duration < 100000)
++              return bucket + 4;
++      return bucket + 5;
++}
++
++/*
++ * Return a multiplier for the exit latency that is intended
++ * to take performance requirements into account.
++ * The more performance critical we estimate the system
++ * to be, the higher this multiplier, and thus the higher
++ * the barrier to go to an expensive C state.
++ */
++static inline int performance_multiplier(void)
++{
++      int mult = 1;
++
++      /* for higher loadavg, we are more reluctant */
++
++      mult += 2 * get_loadavg();
++
++      /* for IO wait tasks (per cpu!) we add 5x each */
++      mult += 10 * nr_iowait_cpu();
++
++      return mult;
++}
++
+ static DEFINE_PER_CPU(struct menu_device, menu_devices);
+ /**
+@@ -38,37 +175,59 @@ static int menu_select(struct cpuidle_device *dev)
+       struct menu_device *data = &__get_cpu_var(menu_devices);
+       int latency_req = pm_qos_requirement(PM_QOS_CPU_DMA_LATENCY);
+       int i;
++      int multiplier;
++
++      data->last_state_idx = 0;
++      data->exit_us = 0;
+       /* Special case when user has set very strict latency requirement */
+-      if (unlikely(latency_req == 0)) {
+-              data->last_state_idx = 0;
++      if (unlikely(latency_req == 0))
+               return 0;
+-      }
+-      /* determine the expected residency time */
++      /* determine the expected residency time, round up */
+       data->expected_us =
+-              (u32) ktime_to_ns(tick_nohz_get_sleep_length()) / 1000;
++          DIV_ROUND_UP((u32)ktime_to_ns(tick_nohz_get_sleep_length()), 1000);
++
++
++      data->bucket = which_bucket(data->expected_us);
++
++      multiplier = performance_multiplier();
++
++      /*
++       * if the correction factor is 0 (eg first time init or cpu hotplug
++       * etc), we actually want to start out with a unity factor.
++       */
++      if (data->correction_factor[data->bucket] == 0)
++              data->correction_factor[data->bucket] = RESOLUTION * DECAY;
++
++      /* Make sure to round up for half microseconds */
++      data->predicted_us = DIV_ROUND_CLOSEST(
++              data->expected_us * data->correction_factor[data->bucket],
++              RESOLUTION * DECAY);
++
++      /*
++       * We want to default to C1 (hlt), not to busy polling
++       * unless the timer is happening really really soon.
++       */
++      if (data->expected_us > 5)
++              data->last_state_idx = CPUIDLE_DRIVER_STATE_START;
+-      /* Recalculate predicted_us based on prediction_history_pct */
+-      data->predicted_us *= PRED_HISTORY_PCT;
+-      data->predicted_us += (100 - PRED_HISTORY_PCT) *
+-                              data->current_predicted_us;
+-      data->predicted_us /= 100;
+       /* find the deepest idle state that satisfies our constraints */
+-      for (i = CPUIDLE_DRIVER_STATE_START + 1; i < dev->state_count; i++) {
++      for (i = CPUIDLE_DRIVER_STATE_START; i < dev->state_count; i++) {
+               struct cpuidle_state *s = &dev->states[i];
+-              if (s->target_residency > data->expected_us)
+-                      break;
+               if (s->target_residency > data->predicted_us)
+                       break;
+               if (s->exit_latency > latency_req)
+                       break;
++              if (s->exit_latency * multiplier > data->predicted_us)
++                      break;
++              data->exit_us = s->exit_latency;
++              data->last_state_idx = i;
+       }
+-      data->last_state_idx = i - 1;
+-      return i - 1;
++      return data->last_state_idx;
+ }
+ /**
+@@ -85,35 +244,49 @@ static void menu_reflect(struct cpuidle_device *dev)
+       unsigned int last_idle_us = cpuidle_get_last_residency(dev);
+       struct cpuidle_state *target = &dev->states[last_idx];
+       unsigned int measured_us;
++      u64 new_factor;
+       /*
+        * Ugh, this idle state doesn't support residency measurements, so we
+        * are basically lost in the dark.  As a compromise, assume we slept
+-       * for one full standard timer tick.  However, be aware that this
+-       * could potentially result in a suboptimal state transition.
++       * for the whole expected time.
+        */
+       if (unlikely(!(target->flags & CPUIDLE_FLAG_TIME_VALID)))
+-              last_idle_us = USEC_PER_SEC / HZ;
++              last_idle_us = data->expected_us;
++
++
++      measured_us = last_idle_us;
+       /*
+-       * measured_us and elapsed_us are the cumulative idle time, since the
+-       * last time we were woken out of idle by an interrupt.
++       * We correct for the exit latency; we are assuming here that the
++       * exit latency happens after the event that we're interested in.
+        */
+-      if (data->elapsed_us <= data->elapsed_us + last_idle_us)
+-              measured_us = data->elapsed_us + last_idle_us;
++      if (measured_us > data->exit_us)
++              measured_us -= data->exit_us;
++
++
++      /* update our correction ratio */
++
++      new_factor = data->correction_factor[data->bucket]
++                      * (DECAY - 1) / DECAY;
++
++      if (data->expected_us > 0 && data->measured_us < MAX_INTERESTING)
++              new_factor += RESOLUTION * measured_us / data->expected_us;
+       else
+-              measured_us = -1;
++              /*
++               * we were idle so long that we count it as a perfect
++               * prediction
++               */
++              new_factor += RESOLUTION;
+-      /* Predict time until next break event */
+-      data->current_predicted_us = max(measured_us, data->last_measured_us);
++      /*
++       * We don't want 0 as factor; we always want at least
++       * a tiny bit of estimated time.
++       */
++      if (new_factor == 0)
++              new_factor = 1;
+-      if (last_idle_us + BREAK_FUZZ <
+-          data->expected_us - target->exit_latency) {
+-              data->last_measured_us = measured_us;
+-              data->elapsed_us = 0;
+-      } else {
+-              data->elapsed_us = measured_us;
+-      }
++      data->correction_factor[data->bucket] = new_factor;
+ }
+ /**
+diff --git a/include/linux/sched.h b/include/linux/sched.h
+index cdc1298..d559406 100644
+--- a/include/linux/sched.h
++++ b/include/linux/sched.h
+@@ -140,6 +140,10 @@ extern int nr_processes(void);
+ extern unsigned long nr_running(void);
+ extern unsigned long nr_uninterruptible(void);
+ extern unsigned long nr_iowait(void);
++extern unsigned long nr_iowait_cpu(void);
++extern unsigned long this_cpu_load(void);
++
++
+ extern void calc_global_load(void);
+ extern u64 cpu_nr_migrations(int cpu);
+diff --git a/kernel/sched.c b/kernel/sched.c
+index 4dbe8e7..541b370 100644
+--- a/kernel/sched.c
++++ b/kernel/sched.c
+@@ -2910,6 +2910,19 @@ unsigned long nr_iowait(void)
+       return sum;
+ }
++unsigned long nr_iowait_cpu(void)
++{
++      struct rq *this = this_rq();
++      return atomic_read(&this->nr_iowait);
++}
++
++unsigned long this_cpu_load(void)
++{
++      struct rq *this = this_rq();
++      return this->cpu_load[0];
++}
++
++
+ /* Variables and functions for calc_load */
+ static atomic_long_t calc_load_tasks;
+ static unsigned long calc_load_update;
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-n_tty-honor-opost-flag-for-echoes.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-n_tty-honor-opost-flag-for-echoes.patch
new file mode 100644 (file)
index 0000000..216fca7
--- /dev/null
@@ -0,0 +1,86 @@
+commit ee5aa7b8b98774f408d20a2f61f97a89ac66c29b
+Author: Joe Peterson <joe@skyrush.com>
+Date:   Wed Sep 9 15:03:13 2009 -0600
+
+    n_tty: honor opost flag for echoes
+    
+    Fixes the following bug:
+    
+          http://bugs.linuxbase.org/show_bug.cgi?id=2692
+    
+    Causes processing of echoed characters (output from the echo buffer) to
+    honor the O_OPOST flag, which is consistent with the old behavior.
+    
+    Note that this and the next patch ("n_tty: move echoctl check and
+    clean up logic") were verified together by the bug reporters, and
+    the test now passes.
+    
+    Signed-off-by: Joe Peterson <joe@skyrush.com>
+    Cc: Linux Torvalds <torvalds@linux-foundation.org>
+    Signed-off-by: Greg Kroah-Hartman <gregkh@suse.de>
+
+diff --git a/drivers/char/n_tty.c b/drivers/char/n_tty.c
+index 4e28b35..e6eeeb2 100644
+--- a/drivers/char/n_tty.c
++++ b/drivers/char/n_tty.c
+@@ -272,7 +272,8 @@ static inline int is_continuation(unsigned char c, struct tty_struct *tty)
+  *
+  *    This is a helper function that handles one output character
+  *    (including special characters like TAB, CR, LF, etc.),
+- *    putting the results in the tty driver's write buffer.
++ *    doing OPOST processing and putting the results in the
++ *    tty driver's write buffer.
+  *
+  *    Note that Linux currently ignores TABDLY, CRDLY, VTDLY, FFDLY
+  *    and NLDLY.  They simply aren't relevant in the world today.
+@@ -350,8 +351,9 @@ static int do_output_char(unsigned char c, struct tty_struct *tty, int space)
+  *    @c: character (or partial unicode symbol)
+  *    @tty: terminal device
+  *
+- *    Perform OPOST processing.  Returns -1 when the output device is
+- *    full and the character must be retried.
++ *    Output one character with OPOST processing.
++ *    Returns -1 when the output device is full and the character
++ *    must be retried.
+  *
+  *    Locking: output_lock to protect column state and space left
+  *             (also, this is called from n_tty_write under the
+@@ -377,8 +379,11 @@ static int process_output(unsigned char c, struct tty_struct *tty)
+ /**
+  *    process_output_block            -       block post processor
+  *    @tty: terminal device
+- *    @inbuf: user buffer
+- *    @nr: number of bytes
++ *    @buf: character buffer
++ *    @nr: number of bytes to output
++ *
++ *    Output a block of characters with OPOST processing.
++ *    Returns the number of characters output.
+  *
+  *    This path is used to speed up block console writes, among other
+  *    things when processing blocks of output data. It handles only
+@@ -605,12 +610,18 @@ static void process_echoes(struct tty_struct *tty)
+                       if (no_space_left)
+                               break;
+               } else {
+-                      int retval;
+-
+-                      retval = do_output_char(c, tty, space);
+-                      if (retval < 0)
+-                              break;
+-                      space -= retval;
++                      if (O_OPOST(tty) &&
++                          !(test_bit(TTY_HW_COOK_OUT, &tty->flags))) {
++                              int retval = do_output_char(c, tty, space);
++                              if (retval < 0)
++                                      break;
++                              space -= retval;
++                      } else {
++                              if (!space)
++                                      break;
++                              tty_put_char(tty, c);
++                              space -= 1;
++                      }
+                       cp += 1;
+                       nr -= 1;
+               }
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-n_tty-move-echoctl-check-and-clean-up-logic.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-n_tty-move-echoctl-check-and-clean-up-logic.patch
new file mode 100644 (file)
index 0000000..3a7e0fd
--- /dev/null
@@ -0,0 +1,91 @@
+commit 62b263585bb5005d44a764c90d80f9c4bb8188c1
+Author: Joe Peterson <joe@skyrush.com>
+Date:   Wed Sep 9 15:03:47 2009 -0600
+
+    n_tty: move echoctl check and clean up logic
+    
+    Check L_ECHOCTL before insertting a character in the echo buffer
+    (rather than as the buffer is processed), to be more consistent with
+    when all other L_ flags are checked.  Also cleaned up the related logic.
+    
+    Note that this and the previous patch ("n_tty: honor opost flag for echoes")
+    were verified together by the reporters of the bug that patch addresses
+    (http://bugs.linuxbase.org/show_bug.cgi?id=2692), and the test now passes.
+    
+    Signed-off-by: Joe Peterson <joe@skyrush.com>
+    Cc: Linus Torvalds <torvalds@linux-foundation.org>
+    Signed-off-by: Greg Kroah-Hartman <gregkh@suse.de>
+
+diff --git a/drivers/char/n_tty.c b/drivers/char/n_tty.c
+index e6eeeb2..2e50f4d 100644
+--- a/drivers/char/n_tty.c
++++ b/drivers/char/n_tty.c
+@@ -576,33 +576,23 @@ static void process_echoes(struct tty_struct *tty)
+                               break;
+                       default:
+-                              if (iscntrl(op)) {
+-                                      if (L_ECHOCTL(tty)) {
+-                                              /*
+-                                               * Ensure there is enough space
+-                                               * for the whole ctrl pair.
+-                                               */
+-                                              if (space < 2) {
+-                                                      no_space_left = 1;
+-                                                      break;
+-                                              }
+-                                              tty_put_char(tty, '^');
+-                                              tty_put_char(tty, op ^ 0100);
+-                                              tty->column += 2;
+-                                              space -= 2;
+-                                      } else {
+-                                              if (!space) {
+-                                                      no_space_left = 1;
+-                                                      break;
+-                                              }
+-                                              tty_put_char(tty, op);
+-                                              space--;
+-                                      }
+-                              }
+                               /*
+-                               * If above falls through, this was an
+-                               * undefined op.
++                               * If the op is not a special byte code,
++                               * it is a ctrl char tagged to be echoed
++                               * as "^X" (where X is the letter
++                               * representing the control char).
++                               * Note that we must ensure there is
++                               * enough space for the whole ctrl pair.
++                               *
+                                */
++                              if (space < 2) {
++                                      no_space_left = 1;
++                                      break;
++                              }
++                              tty_put_char(tty, '^');
++                              tty_put_char(tty, op ^ 0100);
++                              tty->column += 2;
++                              space -= 2;
+                               cp += 2;
+                               nr -= 2;
+                       }
+@@ -809,8 +799,8 @@ static void echo_char_raw(unsigned char c, struct tty_struct *tty)
+  *    Echo user input back onto the screen. This must be called only when
+  *    L_ECHO(tty) is true. Called from the driver receive_buf path.
+  *
+- *    This variant tags control characters to be possibly echoed as
+- *    as "^X" (where X is the letter representing the control char).
++ *    This variant tags control characters to be echoed as "^X"
++ *    (where X is the letter representing the control char).
+  *
+  *    Locking: echo_lock to protect the echo buffer
+  */
+@@ -823,7 +813,7 @@ static void echo_char(unsigned char c, struct tty_struct *tty)
+               add_echo_byte(ECHO_OP_START, tty);
+               add_echo_byte(ECHO_OP_START, tty);
+       } else {
+-              if (iscntrl(c) && c != '\t')
++              if (L_ECHOCTL(tty) && iscntrl(c) && c != '\t')
+                       add_echo_byte(ECHO_OP_START, tty);
+               add_echo_byte(c, tty);
+       }
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-timer-fix.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.32-timer-fix.patch
new file mode 100644 (file)
index 0000000..a6f5079
--- /dev/null
@@ -0,0 +1,64 @@
+From 33725d4939f457b12d7bc1bcbcc0dfb8b2f5bd48 Mon Sep 17 00:00:00 2001
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Thu, 24 Sep 2009 13:24:16 +0200
+Subject: [PATCH] x86, timers: check for pending timers after (device) interrupts
+
+Now that range timers and deferred timers are common, I found a
+problem with these using the "perf timechart" tool.
+
+It turns out that on x86, these two 'opportunistic' timers only
+get checked when another "real" timer happens.
+These opportunistic timers have the objective to save power by
+hitchhiking on other wakeups, as to avoid CPU wakeups by themselves
+as much as possible.
+
+The change in this patch runs this check not only at timer interrupts,
+but at all (device) interrupts. The effect is that
+1) the deferred timers/range timers get delayed less
+2) the range timers cause less wakeups by themselves because
+   the percentage of hitchhiking on existing wakeup events goes up.
+
+I've verified the working of the patch using "perf timechart",
+the original exposed bug is gone with this patch.
+
+Signed-off-by: Arjan van de Ven <arjan@linux.intel.com>
+---
+ arch/x86/kernel/irq.c |    2 ++
+ arch/x86/kernel/smp.c |    1 +
+ 2 files changed, 3 insertions(+), 0 deletions(-)
+
+diff --git a/arch/x86/kernel/irq.c b/arch/x86/kernel/irq.c
+index 74656d1..3912061 100644
+--- a/arch/x86/kernel/irq.c
++++ b/arch/x86/kernel/irq.c
+@@ -244,6 +244,7 @@ unsigned int __irq_entry do_IRQ(struct pt_regs *regs)
+                               __func__, smp_processor_id(), vector, irq);
+       }
++      run_local_timers();
+       irq_exit();
+       set_irq_regs(old_regs);
+@@ -268,6 +269,7 @@ void smp_generic_interrupt(struct pt_regs *regs)
+       if (generic_interrupt_extension)
+               generic_interrupt_extension();
++      run_local_timers();
+       irq_exit();
+       set_irq_regs(old_regs);
+diff --git a/arch/x86/kernel/smp.c b/arch/x86/kernel/smp.c
+index ec1de97..d915d95 100644
+--- a/arch/x86/kernel/smp.c
++++ b/arch/x86/kernel/smp.c
+@@ -198,6 +198,7 @@ void smp_reschedule_interrupt(struct pt_regs *regs)
+ {
+       ack_APIC_irq();
+       inc_irq_stat(irq_resched_count);
++      run_local_timers();
+       /*
+        * KVM uses this interrupt to force a cpu out of guest mode
+        */
+-- 
+1.6.0.6
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.33-copy-checks.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.33-copy-checks.patch
new file mode 100644 (file)
index 0000000..720fda2
--- /dev/null
@@ -0,0 +1,275 @@
+From 524a1da3c45683cec77480acc6cab1d33ae8d5cb Mon Sep 17 00:00:00 2001
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Sat, 26 Sep 2009 12:36:21 +0200
+Subject: [PATCH] x86: Use __builtin_object_size to validate the buffer size for copy_from_user
+
+gcc (4.x) supports the __builtin_object_size() builtin, which reports the
+size of an object that a pointer point to, when known at compile time.
+If the buffer size is not known at compile time, a constant -1 is returned.
+
+This patch uses this feature to add a sanity check to copy_from_user();
+if the target buffer is known to be smaller than the copy size, the copy
+is aborted and a WARNing is emitted in memory debug mode.
+
+These extra checks compile away when the object size is not known,
+or if both the buffer size and the copy length are constants.
+
+Signed-off-by: Arjan van de Ven <arjan@linux.intel.com>
+Reviewed-by: Ingo Molnar <mingo@elte.hu>
+---
+ arch/x86/include/asm/uaccess_32.h |   19 ++++++++++++++++++-
+ arch/x86/include/asm/uaccess_64.h |   19 ++++++++++++++++++-
+ arch/x86/kernel/x8664_ksyms_64.c  |    2 +-
+ arch/x86/lib/copy_user_64.S       |    4 ++--
+ arch/x86/lib/usercopy_32.c        |    4 ++--
+ include/linux/compiler-gcc4.h     |    2 ++
+ include/linux/compiler.h          |    4 ++++
+ 7 files changed, 47 insertions(+), 7 deletions(-)
+
+diff --git a/arch/x86/include/asm/uaccess_32.h b/arch/x86/include/asm/uaccess_32.h
+index 632fb44..582d6ae 100644
+--- a/arch/x86/include/asm/uaccess_32.h
++++ b/arch/x86/include/asm/uaccess_32.h
+@@ -187,9 +187,26 @@ __copy_from_user_inatomic_nocache(void *to, const void __user *from,
+ unsigned long __must_check copy_to_user(void __user *to,
+                                       const void *from, unsigned long n);
+-unsigned long __must_check copy_from_user(void *to,
++unsigned long __must_check _copy_from_user(void *to,
+                                         const void __user *from,
+                                         unsigned long n);
++
++static inline unsigned long __must_check copy_from_user(void *to,
++                                        const void __user *from,
++                                        unsigned long n)
++{
++      int sz = __compiletime_object_size(to);
++      int ret = -EFAULT;
++
++      if (likely(sz == -1 || sz >= n))
++              ret = _copy_from_user(to, from, n);
++#ifdef CONFIG_DEBUG_VM
++      else
++              WARN(1, "Buffer overflow detected!\n");
++#endif
++      return ret;
++}
++
+ long __must_check strncpy_from_user(char *dst, const char __user *src,
+                                   long count);
+ long __must_check __strncpy_from_user(char *dst,
+diff --git a/arch/x86/include/asm/uaccess_64.h b/arch/x86/include/asm/uaccess_64.h
+index db24b21..ce6fec7 100644
+--- a/arch/x86/include/asm/uaccess_64.h
++++ b/arch/x86/include/asm/uaccess_64.h
+@@ -21,10 +21,27 @@ copy_user_generic(void *to, const void *from, unsigned len);
+ __must_check unsigned long
+ copy_to_user(void __user *to, const void *from, unsigned len);
+ __must_check unsigned long
+-copy_from_user(void *to, const void __user *from, unsigned len);
++_copy_from_user(void *to, const void __user *from, unsigned len);
+ __must_check unsigned long
+ copy_in_user(void __user *to, const void __user *from, unsigned len);
++static inline unsigned long __must_check copy_from_user(void *to,
++                                        const void __user *from,
++                                        unsigned long n)
++{
++      int sz = __compiletime_object_size(to);
++      int ret = -EFAULT;
++
++      if (likely(sz == -1 || sz >= n))
++              ret = _copy_from_user(to, from, n);
++#ifdef CONFIG_DEBUG_VM
++      else
++              WARN(1, "Buffer overflow detected!\n");
++#endif
++      return ret;
++}
++
++
+ static __always_inline __must_check
+ int __copy_from_user(void *dst, const void __user *src, unsigned size)
+ {
+diff --git a/arch/x86/kernel/x8664_ksyms_64.c b/arch/x86/kernel/x8664_ksyms_64.c
+index 3909e3b..a0cdd8c 100644
+--- a/arch/x86/kernel/x8664_ksyms_64.c
++++ b/arch/x86/kernel/x8664_ksyms_64.c
+@@ -30,7 +30,7 @@ EXPORT_SYMBOL(__put_user_8);
+ EXPORT_SYMBOL(copy_user_generic);
+ EXPORT_SYMBOL(__copy_user_nocache);
+-EXPORT_SYMBOL(copy_from_user);
++EXPORT_SYMBOL(_copy_from_user);
+ EXPORT_SYMBOL(copy_to_user);
+ EXPORT_SYMBOL(__copy_from_user_inatomic);
+diff --git a/arch/x86/lib/copy_user_64.S b/arch/x86/lib/copy_user_64.S
+index 6ba0f7b..4be3c41 100644
+--- a/arch/x86/lib/copy_user_64.S
++++ b/arch/x86/lib/copy_user_64.S
+@@ -78,7 +78,7 @@ ENTRY(copy_to_user)
+ ENDPROC(copy_to_user)
+ /* Standard copy_from_user with segment limit checking */
+-ENTRY(copy_from_user)
++ENTRY(_copy_from_user)
+       CFI_STARTPROC
+       GET_THREAD_INFO(%rax)
+       movq %rsi,%rcx
+@@ -88,7 +88,7 @@ ENTRY(copy_from_user)
+       jae bad_from_user
+       ALTERNATIVE_JUMP X86_FEATURE_REP_GOOD,copy_user_generic_unrolled,copy_user_generic_string
+       CFI_ENDPROC
+-ENDPROC(copy_from_user)
++ENDPROC(_copy_from_user)
+ ENTRY(copy_user_generic)
+       CFI_STARTPROC
+diff --git a/arch/x86/lib/usercopy_32.c b/arch/x86/lib/usercopy_32.c
+index 1f118d4..8498684 100644
+--- a/arch/x86/lib/usercopy_32.c
++++ b/arch/x86/lib/usercopy_32.c
+@@ -874,7 +874,7 @@ EXPORT_SYMBOL(copy_to_user);
+  * data to the requested size using zero bytes.
+  */
+ unsigned long
+-copy_from_user(void *to, const void __user *from, unsigned long n)
++_copy_from_user(void *to, const void __user *from, unsigned long n)
+ {
+       if (access_ok(VERIFY_READ, from, n))
+               n = __copy_from_user(to, from, n);
+@@ -882,4 +882,4 @@ copy_from_user(void *to, const void __user *from, unsigned long n)
+               memset(to, 0, n);
+       return n;
+ }
+-EXPORT_SYMBOL(copy_from_user);
++EXPORT_SYMBOL(_copy_from_user);
+diff --git a/include/linux/compiler-gcc4.h b/include/linux/compiler-gcc4.h
+index 450fa59..a3aef5d 100644
+--- a/include/linux/compiler-gcc4.h
++++ b/include/linux/compiler-gcc4.h
+@@ -37,3 +37,5 @@
+ #define __cold                        __attribute__((__cold__))
+ #endif
++
++#define __compiletime_object_size(obj) __builtin_object_size(obj, 0)
+diff --git a/include/linux/compiler.h b/include/linux/compiler.h
+index 9d4c4b0..9c42853 100644
+--- a/include/linux/compiler.h
++++ b/include/linux/compiler.h
+@@ -185,6 +185,10 @@ extern void __chk_io_ptr(const volatile void __iomem *);
+ # define __same_type(a, b) __builtin_types_compatible_p(typeof(a), typeof(b))
+ #endif
++/* Compile time object size, -1 for unknown */
++#ifndef __compiletime_object_size
++# define __compiletime_object_size(obj) -1
++#endif
+ /*
+  * Prevent the compiler from merging or refetching accesses.  The compiler
+  * is also forbidden from reordering successive instances of ACCESS_ONCE(),
+-- 
+1.6.0.6
+
+From 350cf3cd513e6759ae6852946532a47249f25600 Mon Sep 17 00:00:00 2001
+From: Arjan van de Ven <arjan@linux.intel.com>
+Date: Wed, 30 Sep 2009 12:57:46 +0200
+Subject: [PATCH] x86: Turn the copy_from_user check into an (optional) compile time warning
+
+A previous patch added the buffer size check to copy_from_user().
+
+One of the things learned from analyzing the result of the previous patch
+is that in general, gcc is really good at proving that the code contains
+sufficient security checks to not need to do a runtime check. But that
+for those cases where gcc could not prove this, there was a relatively
+high percentage of real security issues.
+
+This patch turns the case of "gcc cannot prove" into a compile time
+warning, as long as a sufficiently new gcc is in use.
+The objective is that these warnings will trigger developers checking
+new cases out before a security hole enters a linux kernel release.
+
+Signed-off-by: Arjan van de Ven <arjan@linux.intel.com>
+---
+ arch/x86/include/asm/uaccess_32.h |   12 +++++++++---
+ arch/x86/lib/usercopy_32.c        |    6 ++++++
+ include/linux/compiler-gcc4.h     |    3 +++
+ include/linux/compiler.h          |    4 ++++
+ 4 files changed, 22 insertions(+), 3 deletions(-)
+
+diff --git a/arch/x86/include/asm/uaccess_32.h b/arch/x86/include/asm/uaccess_32.h
+index 582d6ae..7826639 100644
+--- a/arch/x86/include/asm/uaccess_32.h
++++ b/arch/x86/include/asm/uaccess_32.h
+@@ -191,6 +191,13 @@ unsigned long __must_check _copy_from_user(void *to,
+                                         const void __user *from,
+                                         unsigned long n);
++
++extern void copy_from_user_overflow(void)
++#ifdef CONFIG_DEBUG_STACKOVERFLOW
++      __compiletime_warning("copy_from_user buffer size is not provably correct")
++#endif
++;
++
+ static inline unsigned long __must_check copy_from_user(void *to,
+                                         const void __user *from,
+                                         unsigned long n)
+@@ -200,10 +207,9 @@ static inline unsigned long __must_check copy_from_user(void *to,
+       if (likely(sz == -1 || sz >= n))
+               ret = _copy_from_user(to, from, n);
+-#ifdef CONFIG_DEBUG_VM
+       else
+-              WARN(1, "Buffer overflow detected!\n");
+-#endif
++              copy_from_user_overflow();
++
+       return ret;
+ }
+diff --git a/arch/x86/lib/usercopy_32.c b/arch/x86/lib/usercopy_32.c
+index 8498684..e218d5d 100644
+--- a/arch/x86/lib/usercopy_32.c
++++ b/arch/x86/lib/usercopy_32.c
+@@ -883,3 +883,9 @@ _copy_from_user(void *to, const void __user *from, unsigned long n)
+       return n;
+ }
+ EXPORT_SYMBOL(_copy_from_user);
++
++void copy_from_user_overflow(void)
++{
++      WARN(1, "Buffer overflow detected!\n");
++}
++EXPORT_SYMBOL(copy_from_user_overflow);
+diff --git a/include/linux/compiler-gcc4.h b/include/linux/compiler-gcc4.h
+index a3aef5d..f1709c1 100644
+--- a/include/linux/compiler-gcc4.h
++++ b/include/linux/compiler-gcc4.h
+@@ -39,3 +39,6 @@
+ #endif
+ #define __compiletime_object_size(obj) __builtin_object_size(obj, 0)
++#if __GNUC_MINOR__ >= 4
++#define __compiletime_warning(message) __attribute__((warning(message)))
++#endif
+diff --git a/include/linux/compiler.h b/include/linux/compiler.h
+index 9c42853..241dfd8 100644
+--- a/include/linux/compiler.h
++++ b/include/linux/compiler.h
+@@ -189,6 +189,10 @@ extern void __chk_io_ptr(const volatile void __iomem *);
+ #ifndef __compiletime_object_size
+ # define __compiletime_object_size(obj) -1
+ #endif
++#ifndef __compiletime_warning
++# define __compiletime_warning(message)
++#endif
++
+ /*
+  * Prevent the compiler from merging or refetching accesses.  The compiler
+  * is also forbidden from reordering successive instances of ACCESS_ONCE(),
+-- 
+1.6.2.5
+
diff --git a/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.33-pit-fix.patch b/meta-moblin/packages/linux/linux-moblin-2.6.31.5/linux-2.6.33-pit-fix.patch
new file mode 100644 (file)
index 0000000..78a2974
--- /dev/null
@@ -0,0 +1,95 @@
+From 42cb68d81a218b0fd7c053356d379a93270b40ea Mon Sep 17 00:00:00 2001
+From: Yong Wang <yong.y.wang@intel.com>
+Date: Fri, 30 Oct 2009 10:33:20 +0800
+Subject: [PATCH] x86: Do not unregister PIT clocksource on PIT oneshot setup/shutdown
+
+Backported from upstream commit 8cab02dc3c58a12235c6d463ce684dded9696848
+and this fixes bug #7377 "system can not resume from S3". Further information
+can be found at http://bugzilla.kernel.org/show_bug.cgi?id=14222.
+
+Signed-off-by: Yong Wang <yong.y.wang@intel.com>
+---
+ arch/x86/kernel/i8253.c |   36 ++----------------------------------
+ 1 files changed, 2 insertions(+), 34 deletions(-)
+
+diff --git a/arch/x86/kernel/i8253.c b/arch/x86/kernel/i8253.c
+index da890f0..23c1679 100644
+--- a/arch/x86/kernel/i8253.c
++++ b/arch/x86/kernel/i8253.c
+@@ -19,14 +19,6 @@
+ DEFINE_SPINLOCK(i8253_lock);
+ EXPORT_SYMBOL(i8253_lock);
+-#ifdef CONFIG_X86_32
+-static void pit_disable_clocksource(void);
+-static void pit_enable_clocksource(void);
+-#else
+-static inline void pit_disable_clocksource(void) { }
+-static inline void pit_enable_clocksource(void) { }
+-#endif
+-
+ /*
+  * HPET replaces the PIT, when enabled. So we need to know, which of
+  * the two timers is used
+@@ -59,17 +51,15 @@ static void init_pit_timer(enum clock_event_mode mode,
+                       outb_pit(0, PIT_CH0);
+                       outb_pit(0, PIT_CH0);
+               }
+-              pit_disable_clocksource();
+               break;
+       case CLOCK_EVT_MODE_ONESHOT:
+               /* One shot setup */
+-              pit_disable_clocksource();
+               outb_pit(0x38, PIT_MODE);
+               break;
+       case CLOCK_EVT_MODE_RESUME:
+-              pit_enable_clocksource();
++              /* Nothing to do here */
+               break;
+       }
+       spin_unlock(&i8253_lock);
+@@ -202,27 +192,8 @@ static struct clocksource pit_cs = {
+       .shift          = 20,
+ };
+-int pit_cs_registered;
+-static void pit_disable_clocksource(void)
+-{
+-      if (pit_cs_registered) {
+-              clocksource_unregister(&pit_cs);
+-              pit_cs_registered = 0;
+-      }
+-}
+-
+-static void pit_enable_clocksource(void)
+-{
+-      if (!pit_cs_registered && !clocksource_register(&pit_cs)) {
+-              pit_cs_registered = 1;
+-      }
+-}
+-
+-
+-
+ static int __init init_pit_clocksource(void)
+ {
+-      int ret;
+        /*
+         * Several reasons not to register PIT as a clocksource:
+         *
+@@ -236,10 +207,7 @@ static int __init init_pit_clocksource(void)
+       pit_cs.mult = clocksource_hz2mult(CLOCK_TICK_RATE, pit_cs.shift);
+-      ret = clocksource_register(&pit_cs);
+-      if (!ret)
+-              pit_cs_registered = 1;
+-      return ret;
++      return clocksource_register(&pit_cs);
+ }
+ arch_initcall(init_pit_clocksource);
+-- 
+1.5.5.1
+
diff --git a/meta-moblin/packages/linux/linux-moblin_2.6.31.5.bb b/meta-moblin/packages/linux/linux-moblin_2.6.31.5.bb
new file mode 100644 (file)
index 0000000..409242d
--- /dev/null
@@ -0,0 +1,47 @@
+require linux-moblin.inc
+
+PR = "r0"
+
+DEFAULT_PREFERENCE = "-1"
+DEFAULT_PREFERENCE_netbook = "1"
+#DEFAULT_PREFERENCE_menlow = "1"
+
+SRC_URI = "${KERNELORG_MIRROR}/pub/linux/kernel/v2.6/linux-2.6.31.5.tar.bz2 \
+           file://linux-2.6-build-nonintconfig.patch;patch=1 \
+           file://linux-2.6.32-cpuidle.patch;patch=1 \
+           file://linux-2.6.32-n_tty-honor-opost-flag-for-echoes.patch;patch=1 \
+           file://linux-2.6.32-n_tty-move-echoctl-check-and-clean-up-logic.patch;patch=1 \
+           file://linux-2.6.33-pit-fix.patch;patch=1 \
+           file://linux-2.6.29-dont-wait-for-mouse.patch;patch=1 \
+           file://linux-2.6.29-sreadahead.patch;patch=1 \
+           file://linux-2.6.29-kms-edid-cache.patch;patch=1 \
+           file://linux-2.6.29-kms-run-async.patch;patch=1 \
+           file://linux-2.6.29-kms-dont-blank-display.patch;patch=1 \
+           file://linux-2.6.29-kms-after-sata.patch;patch=1 \
+           file://linux-2.6.30-non-root-X.patch;patch=1 \
+           file://linux-2.6.31-drm-kms-flip.patch;patch=1 \
+           file://linux-2.6.31-drm-mem-info.patch;patch=1 \
+           file://linux-2.6.31-drm-i915-fix.patch;patch=1 \
+           file://linux-2.6.31-drm-i915-opregion.patch;patch=1 \
+           file://linux-2.6.31-drm-i915-vblank-fix.patch;patch=1 \
+           file://linux-2.6.29-silence-acer-message.patch;patch=1 \
+           file://linux-2.6.31-silence-wacom.patch;patch=1 \
+           file://linux-2.6.29-jbd-longer-commit-interval.patch;patch=1 \
+           file://linux-2.6.29-touchkit.patch;patch=1 \
+           file://linux-2.6.31-1-2-timberdale.patch;patch=1 \
+           file://linux-2.6.31-2-2-timberdale.patch;patch=1 \
+           file://linux-2.6-driver-level-usb-autosuspend.patch;patch=1 \
+           file://linux-2.6.31-bluetooth-suspend.patch;patch=1 \
+           file://linux-2.6-usb-uvc-autosuspend.patch;patch=1 \
+           file://linux-2.6.31-samsung.patch;patch=1 \
+           file://MRST-GFX-driver-consolidated.patch;patch=1 \
+           file://linux-2.6.31-iegd.patch;patch=1 \
+           file://linux-2.6.32-acpi-cstate-fixup.patch;patch=1 \
+           file://linux-2.6.32-timer-fix.patch;patch=1 \
+           file://linux-2.6.33-copy-checks.patch;patch=1 \
+           file://close_debug_info_of_rt2860.patch;patch=1 \
+#           file://i915_split.patch.patch;patch=1 \
+#           file://defconfig-menlow \
+           file://defconfig-netbook"
+
+S = "${WORKDIR}/linux-2.6.31.5"